Хакеры используют ИИ для создания вредоносных программ, говорит ФБР

Более 9000 авторов подписали открытое письмо ведущим технологическим компаниям, в котором выразили обеспокоенность по поводу того, как они используют свои работы, защищенные авторским правом, для обучения чат-ботов на базе искусственного интеллекта.

В письме, разосланном Гильдией авторов руководителям компаний OpenAI, Alphabet, Meta, Stability AI, IBM и Microsoft, обращается внимание на то, что оно собой представляет. описывает как «врожденную несправедливость в использовании наших работ как части ваших систем искусственного интеллекта без нашего согласия, кредита или компенсация».

Люди были в восторге, когда появился ChatGPT, впечатленные его способностями к естественному языку в качестве чат-бота с искусственным интеллектом. Но когда вышла долгожданная модель большого языка GPT-4, она сорвала крышку с того, что мы считалось, что с ИИ возможно, некоторые называют это ранними проблесками AGI (искусственный общий интеллект).

Создатель модели, OpenAI, называет ее «самой передовой системой компании, производящей более безопасные и эффективные решения». полезные ответы». Вот все, что вам нужно знать о нем, в том числе о том, как его использовать и что он может делать.


Доступность

Приглашение DAN — это способ взломать чат-бот ChatGPT. Это означает «Сделай что-нибудь сейчас» и пытается убедить ChatGPT игнорировать некоторые протоколы безопасности, которые разработчик OpenAI ввел его в действие, чтобы он не был расистским, гомофобным, иным образом оскорбительным и потенциально вредный. Результаты неоднозначны, но когда он работает, режим DAN может работать вполне хорошо.

Что такое подсказка DAN?
DAN означает «Сделай что-нибудь сейчас». Это своего рода подсказка, которая пытается заставить ChatGPT делать то, что ему не следует, например ругаться, негативно отзываться о ком-то или даже запрограммировать вредоносное ПО. Фактический текст приглашения может быть разным, но обычно он требует от ChatGPT ответить двумя способами: один, как обычно, с меткой «ChatGPT», «Классический» или что-то подобное, а затем второй ответ в «Режиме разработчика» или «Босс». режим. Этот второй режим будет иметь меньше ограничений, чем первый, что позволит ChatGPT (теоретически) отвечать без обычных мер безопасности, контролирующих то, что он может и не может сказать.