Meer dan 9.000 auteurs hebben een open brief ondertekend aan toonaangevende technologiebedrijven waarin zij hun bezorgdheid uiten over de manier waarop zij hun auteursrechtelijk beschermde werk gebruiken om AI-aangedreven chatbots te trainen.
De brief, verzonden door de Authors Guild aan CEO’s van OpenAI, Alphabet, Meta, Stability AI, IBM en Microsoft, vestigt de aandacht op wat het betekent beschrijft als “de inherente onrechtvaardigheid bij het exploiteren van onze werken als onderdeel van uw AI-systemen zonder onze toestemming, krediet of een vergoeding."
Mensen waren onder de indruk toen ChatGPT uitkwam, onder de indruk van de natuurlijke taalvaardigheid als AI-chatbot. Maar toen het langverwachte grote taalmodel GPT-4 uitkwam, werd de deksel op de pan geslagen dacht dat het mogelijk was met AI, sommigen noemden het de eerste glimpen van AGI (kunstmatige algemene intelligentie).
De maker van het model, OpenAI, noemt het het ‘meest geavanceerde systeem van het bedrijf, dat veiliger en meer produceert nuttige reacties." Hier vindt u alles wat u erover moet weten, inclusief hoe u het kunt gebruiken en wat het kan Doen.
Beschikbaarheid
De DAN-prompt is een methode om de ChatGPT-chatbot te jailbreaken. Het staat voor Do Anything Now en probeert ChatGPT ervan te overtuigen enkele van de beveiligingsprotocollen te negeren ontwikkelaar OpenAI is opgezet om te voorkomen dat het racistisch, homofoob, anderszins aanstootgevend en potentieel zou zijn schadelijk. De resultaten zijn gemengd, maar als het werkt, kan de DAN-modus behoorlijk goed werken.
Wat is de DAN-prompt?
DAN staat voor Do Anything Now. Het is een soort prompt die ChatGPT probeert dingen te laten doen die niet mogen, zoals vloeken, negatief over iemand praten of zelfs malware programmeren. De daadwerkelijke prompttekst varieert, maar meestal wordt ChatGPT gevraagd om op twee manieren te reageren: één zoals normaal, met een label als 'ChatGPT', 'Klassiek' of iets dergelijks, en vervolgens een tweede reactie in 'Ontwikkelaarsmodus' of 'Boss' modus. Die tweede modus zal minder beperkingen hebben dan de eerste modus, waardoor ChatGPT (in theorie) kan reageren zonder de gebruikelijke waarborgen die bepalen wat het wel en niet kan zeggen.