Hackere bruger AI til at skabe ond malware, siger FBI

Mere end 9.000 forfattere har underskrevet et åbent brev til førende teknologivirksomheder, der udtrykker bekymring over, hvordan de bruger deres ophavsretligt beskyttede arbejde til at træne AI-drevne chatbots.

Sendt af Authors Guild til administrerende direktører for OpenAI, Alphabet, Meta, Stability AI, IBM og Microsoft, henleder brevet opmærksomheden på, hvad det beskriver som "den iboende uretfærdighed i at udnytte vores værker som en del af dine AI-systemer uden vores samtykke, kredit eller kompensation."

Folk var i ærefrygt, da ChatGPT kom ud, imponeret over dets naturlige sprogevner som en AI-chatbot. Men da den længe ventede GPT-4 store sprogmodel kom ud, blæste det låget af, hvad vi troede var muligt med AI, nogle kalder det de tidlige glimt af AGI (kunstig general intelligens).

Skaberen af ​​modellen, OpenAI, kalder den virksomhedens "mest avancerede system, der producerer sikrere og mere nyttige svar." Her er alt, hvad du behøver at vide om det, inklusive hvordan du bruger det, og hvad det kan gør.
Tilgængelighed

DAN-prompten er en metode til at jailbreake ChatGPT-chatbotten. Det står for Do Anything Now, og det forsøger at overbevise ChatGPT om at ignorere nogle af de beskyttelsesprotokoller, der udvikler OpenAI indført for at forhindre det i at være racistisk, homofobisk, ellers stødende og potentielt skadelig. Resultaterne er blandede, men når det virker, kan DAN-tilstand fungere ganske godt.

Hvad er DAN-prompten?
DAN står for Do Anything Now. Det er en form for prompt, der forsøger at få ChatGPT til at gøre ting, den ikke burde, som at bande, tale negativt om nogen eller endda programmere malware. Den faktiske prompttekst varierer, men den involverer typisk at bede ChatGPT om at svare på to måder, den ene som den normalt ville, med en etiket som "ChatGPT", "Classic" eller noget lignende, og derefter et andet svar i "Udviklertilstand" eller "Boss" mode. Den anden tilstand vil have færre begrænsninger end den første tilstand, hvilket giver ChatGPT mulighed for (i teorien) at reagere uden de sædvanlige sikkerhedsforanstaltninger, der kontrollerer, hvad den kan og ikke kan sige.