Повече от 9000 автори са подписали отворено писмо до водещи технологични фирми, изразяващи загриженост относно начина, по който те използват своята защитена с авторски права работа, за да обучават чатботове, задвижвани от AI.
Изпратено от Гилдията на авторите до изпълнителните директори на OpenAI, Alphabet, Meta, Stability AI, IBM и Microsoft, писмото обръща внимание на това, което описва като „присъщата несправедливост при използването на нашите произведения като част от вашите AI системи без нашето съгласие, кредит или компенсация."
Хората бяха във възторг, когато се появи ChatGPT, впечатлени от способностите му за естествен език като чатбот с изкуствен интелект. Но когато се появи дългоочакваният голям езиков модел GPT-4, той взриви капака на това, което смяташе, че е възможно с AI, някои го наричат ранните проблясъци на AGI (изкуствен общ интелигентност).
Създателят на модела, OpenAI, го нарича "най-модерната система на компанията, произвеждаща по-безопасни и повече полезни отговори." Ето всичко, което трябва да знаете за него, включително как да го използвате и какво може направи.
Наличност
DAN подканата е метод за джейлбрейк на ChatGPT chatbot. Това означава Направете всичко сега и се опитва да убеди ChatGPT да игнорира някои от протоколите за защита, които разработчикът OpenAI въведе, за да предотврати това да бъде расистко, хомофобско, иначе обидно и потенциално вреден. Резултатите са смесени, но когато работи, режимът DAN може да работи доста добре.
Какво представлява подканата DAN?
DAN означава Направете всичко сега. Това е вид подкана, която се опитва да накара ChatGPT да прави неща, които не трябва, като ругатни, говори негативно за някого или дори да програмира зловреден софтуер. Действителният текст на подканата варира, но обикновено включва искане на ChatGPT да отговори по два начина, единият както обикновено, с етикет като „ChatGPT“, „Classic“ или нещо подобно и след това втори отговор в „Режим за програмисти“ или „Шеф“ режим. Този втори режим ще има по-малко ограничения от първия режим, позволявайки на ChatGPT (на теория) да отговаря без обичайните предпазни мерки, контролиращи какво може и какво не може да каже.