Hackerii folosesc inteligența artificială pentru a crea malware vicios, spune FBI

Peste 9.000 de autori au semnat o scrisoare deschisă către firmele de tehnologie de top și-și exprimă îngrijorarea cu privire la modul în care își folosesc munca protejată prin drepturi de autor pentru a instrui chatbot-uri bazați pe inteligență artificială.

Trimisă de Authors Guild directorilor generali ai OpenAI, Alphabet, Meta, Stability AI, IBM și Microsoft, scrisoarea atrage atenția asupra a ceea ce descrie drept „nedreptatea inerentă în exploatarea lucrărilor noastre ca parte a sistemelor dumneavoastră AI fără consimțământul nostru, creditul sau compensare."

Oamenii au fost uimiți când a apărut ChatGPT, impresionați de abilitățile sale de limbaj natural ca chatbot AI. Dar când a apărut modelul de limbă mare GPT-4 foarte așteptat, a aruncat capacul la ceea ce noi crezut că era posibil cu inteligența artificială, unii numind-o primele priviri ale AGI (general artificial inteligenta).

Creatorul modelului, OpenAI, îl numește „cel mai avansat sistem al companiei, care produce mai sigur și mai mult răspunsuri utile.” Iată tot ce trebuie să știți despre el, inclusiv cum să îl utilizați și ce poate do.


Disponibilitate

Promptul DAN este o metodă de jailbreak a chatbot-ului ChatGPT. Aceasta înseamnă Do Anything Now și încearcă să convingă ChatGPT să ignore unele dintre protocoalele de salvgardare care dezvoltatorul OpenAI a pus în aplicare pentru a preveni ca acesta să fie rasist, homofob, altfel ofensator și potențial dăunătoare. Rezultatele sunt amestecate, dar atunci când funcționează, modul DAN poate funcționa destul de bine.

Ce este promptul DAN?
DAN înseamnă Do Anything Now. Este un tip de solicitare care încearcă să-l determine pe ChatGPT să facă lucruri pe care nu ar trebui, cum ar fi să înjure, să vorbească negativ despre cineva sau chiar să programeze malware. Textul prompt efectiv variază, dar de obicei implică solicitarea lui ChatGPT să răspundă în două moduri, unul așa cum ar fi în mod normal, cu o etichetă ca „ChatGPT”, „Classic” sau ceva similar, apoi un al doilea răspuns în „Modul dezvoltator” sau „Șeful” modul. Acel al doilea mod va avea mai puține restricții decât primul mod, permițând ChatGPT să răspundă (teoretic) fără ca garanțiile obișnuite să controleze ceea ce poate și nu poate spune.