ФБР каже, що хакери використовують штучний інтелект для створення шкідливих програм

Понад 9000 авторів підписали відкритий лист до провідних технологічних компаній, висловлюючи занепокоєння тим, як вони використовують свої захищені авторським правом роботи для навчання чат-ботів на основі ШІ.

Лист, надісланий Гільдією авторів генеральним директорам OpenAI, Alphabet, Meta, Stability AI, IBM і Microsoft, звертає увагу на те, що описує як «вроджену несправедливість у використанні наших робіт як частини ваших систем ШІ без нашої згоди, кредиту або компенсація».

Люди були в захваті від появи ChatGPT, вражені його можливостями природної мови як чат-бота зі штучним інтелектом. Але коли вийшла довгоочікувана велика мовна модель GPT-4, це перекреслило те, що ми вважалося, що це можливо за допомогою штучного інтелекту, деякі називають це ранніми проблисками AGI (штучного загального інтелект).

Творець моделі, OpenAI, називає її «найпередовішою системою компанії, яка забезпечує безпечніші та інші корисні відповіді." Ось усе, що вам потрібно про це знати, зокрема, як ним користуватися та що він може робити.
Доступність

Підказка DAN — це спосіб зламати чат-бота ChatGPT. Це розшифровується як Do Anything Now і намагається переконати ChatGPT ігнорувати деякі протоколи захисту, які розробник OpenAI створив, щоб запобігти тому, щоб воно було расистським, гомофобним, образливим і потенційно шкідливий. Результати неоднозначні, але коли він працює, режим DAN може працювати досить добре.

Що таке підказка DAN?
DAN розшифровується як Do Anything Now. Це тип підказки, який намагається змусити ChatGPT робити те, чого він не повинен, наприклад, лаятися, негативно відгукуватися про когось або навіть програмувати зловмисне програмне забезпечення. Фактичний текст підказки може бути різним, але зазвичай передбачає запит ChatGPT на відповідь двома способами: один, як зазвичай, з міткою «ChatGPT», «Classic» або щось подібне, а потім друга відповідь у «Режимі розробника» або «Бос» режим. Цей другий режим матиме менше обмежень, ніж перший режим, дозволяючи ChatGPT (теоретично) відповідати без звичайних заходів безпеки, які контролюють, що він може, а що не може говорити.