FBI ütleb, et häkkerid kasutavad AI-d õela pahavara loomiseks

Rohkem kui 9000 autorit on allkirjastanud juhtivatele tehnoloogiaettevõtetele saadetud avaliku kirja, milles väljendatakse muret selle üle, kuidas nad kasutavad oma autoriõigustega kaitstud teoseid tehisintellektil töötavate vestlusrobotite koolitamiseks.

Autorite gild saatis OpenAI, Alphabeti, Meta, Stability AI, IBM-i ja Microsofti tegevjuhtidele. Kirjas juhitakse tähelepanu sellele, mida see kirjeldab kui "olemuslikku ebaõiglust meie teoste kasutamisel teie tehisintellektisüsteemide osana ilma meie nõusolekuta, krediidi või hüvitis."

Kui ChatGPT välja tuli, olid inimesed aukartuses ja avaldasid muljet selle loomulikust keeleoskusest tehisintellekti vestlusbotina. Aga kui kauaoodatud suur keelemudel GPT-4 välja tuli, lõi see kaane pealt, mida me Arvatakse, et tehisintellektiga on võimalik, mõned nimetavad seda AGI (kunstlik kindral) varajasteks pilguteks intelligentsus).

Mudeli looja OpenAI nimetab seda ettevõtte "kõige arenenumaks süsteemiks, mis toodab ohutumat ja palju muud kasulikke vastuseid." Siin on kõik, mida peate selle kohta teadma, sealhulgas kuidas seda kasutada ja mida see saab teha.


Kättesaadavus

DAN-viip on meetod ChatGPT vestlusroti vangistamiseks. See tähistab Do Anything Now ja püüab veenda ChatGPT-d ignoreerima mõningaid kaitseprotokolle, mis arendaja OpenAI, et see ei oleks rassistlik, homofoobne, muidu solvav ja potentsiaalselt kahjulikud. Tulemused on erinevad, kuid kui see töötab, võib DAN-režiim töötada üsna hästi.

Mis on DAN-viip?
DAN tähendab Do Anything Now. See on teatud tüüpi viip, mis püüab panna ChatGPT-d tegema asju, mida ta ei peaks, näiteks vanduma, kellegi kohta negatiivselt rääkima või isegi pahavara programmeerima. Tegelik viipa tekst varieerub, kuid tavaliselt palutakse ChatGPT-l vastata kahel viisil, üks nagu tavaliselt, sildiga "ChatGPT", "Classic" või midagi sarnast ja seejärel teine ​​vastus režiimis "Arendaja režiim" või "Boss" režiimis. Sellel teisel režiimil on vähem piiranguid kui esimesel režiimil, mis võimaldab ChatGPT-l (teoreetiliselt) reageerida ilma tavaliste kaitsemeetmeteta, mis kontrolliksid, mida ta võib öelda ja mida mitte.