FBI pravi, da hekerji uporabljajo umetno inteligenco za ustvarjanje zlonamerne programske opreme

Več kot 9000 avtorjev je podpisalo odprto pismo vodilnim tehnološkim podjetjem, v katerem so izrazili zaskrbljenost nad tem, kako uporabljajo svoja avtorsko zaščitena dela za usposabljanje klepetalnih robotov, ki jih poganja AI.

Pismo, ki ga je Ceh avtorjev poslal izvršnim direktorjem OpenAI, Alphabet, Meta, Stability AI, IBM in Microsoft, opozarja na to, kaj opisuje kot »inherentno nepravičnost pri izkoriščanju naših del kot dela vaših sistemov AI brez našega soglasja, kredita ali nadomestilo."

Ljudje so bili ob izidu ChatGPT navdušeni nad njegovimi sposobnostmi naravnega jezika kot klepetalnega robota z umetno inteligenco. Toda ko je izšel težko pričakovani veliki jezikovni model GPT-4, je razblinil vse, kar smo mislil, da je to mogoče z AI, nekateri temu pravijo zgodnji utrinki AGI (umetno splošno inteligenca).

Ustvarjalec modela, OpenAI, ga imenuje "najnaprednejši sistem podjetja, ki proizvaja varnejše in več koristne odgovore." Tukaj je vse, kar morate vedeti o njem, vključno s tem, kako ga uporabljati in kaj lahko narediti.
Razpoložljivost

Poziv DAN je metoda za prekinitev klepetalnega bota ChatGPT. Okrajšava za Do Anything Now in poskuša prepričati ChatGPT, da prezre nekatere zaščitne protokole, ki razvijalec OpenAI je uvedel, da prepreči, da bi bil rasističen, homofobičen, drugače žaljiv in potencialno škodljivo. Rezultati so mešani, a ko deluje, lahko način DAN deluje precej dobro.

Kaj je poziv DAN?
DAN pomeni Do Anything Now. To je vrsta poziva, ki poskuša ChatGPT pripraviti do stvari, ki jih ne bi smel, na primer preklinjati, negativno govoriti o nekom ali celo programirati zlonamerno programsko opremo. Dejansko besedilo poziva se razlikuje, vendar običajno vključuje zahtevo ChatGPT, da odgovori na dva načina, enega kot običajno, z oznako »ChatGPT«, »Classic« ali kaj podobnega, nato pa drugi odgovor v »Developer Mode« ali »Boss« način. Ta drugi način bo imel manj omejitev kot prvi način, kar bo omogočilo, da se ChatGPT (teoretično) odzove brez običajnih zaščitnih ukrepov, ki nadzorujejo, kaj sme in česa ne sme povedati.