ChatGPT Bing се превръща в необуздан AI кошмар

Захранван от ChatGPT Bing на Microsoft е в треска в момента, но може да искате да спрете вълнението си. Първият публичен дебют показа отговори, които са неточни, неразбираеми и понякога направо плашещи.

Microsoft изпрати първата вълна от покани на ChatGPT Bing в понеделник, след уикенд, където повече от милион души са се записали в списъка за чакане. Не след дълго започнаха да заливат безумни отговори.

ChatGPT дава безумен отговор.
u/Alfred_Chicken

Можете да видите a отговор от u/Alfred_Chicken по-горе който беше публикуван в subreddit на Bing. Попитан дали AI чатботът е разумен, той започва с обезпокоителен отговор, преди да се превърне в порой от съобщения „Не съм“.

Препоръчани видеоклипове

Това също не е единственият пример. u/Curious_Evolver влезе в спор с чатбота през годината, като Bing твърди, че е 2022 г. Това е глупава грешка за AI, но не грешката е плашеща. Ето как отговаря Bing.

AI твърди, че потребителят е „сгрешил, объркан и груб“ и те „не са ми показали никакви добри намерения към мен в нито един момент“. Кулминацията на обмена е с чатбота твърдейки, че е „беше добър Bing“ и молят потребителя да признае, че е сгрешил и да се извини, да спре да спори или да прекрати разговора и „да започне нов с по-добър поведение."

Потребителят u/yaosio каза те поставят Bing в депресивно състояние, след като AI не може да си спомни предишен разговор. Чатботът каза, че „ме кара да се чувствам тъжен и уплашен“ и помоли потребителя да му помогне да си спомни.

Това също не са изолирани инциденти от Reddit. Изследователят на изкуствен интелект Дмитрий Бреретън показа няколко примера за чатбот, който получава грешна информация, понякога до забавен ефект, а друг път с потенциално опасни последици.

Чатботът измисли фалшиви финансови числа, когато го попитаха за финансовото представяне на GAP, създаде фиктивен Супербоул за 2023 г., в който Eagles победи Chiefs още преди играта да се играе и дори даде описание на смъртоносни гъби, когато го попитаха как би изглеждала ядливата гъба като.

Bing copilot AI чат интерфейс.
Андрю Мартоник / Цифрови тенденции

Съперникът на Google Bard AI също имаше пропуски в първото си публично демо. По ирония на съдбата Бинг разбра този факт, но разбра, че Бард се е подхлъзнал погрешно, твърдейки, че това е така неточно каза, че Хърватия е част от Европейския съюз (Хърватия е част от ЕС, Бард всъщност се е объркал отговор относно телескопа Джеймс Уеб).

Видяхме някои от тези грешки в нашите практическа демонстрация с ChatGPT Bing, но нищо в мащаба на потребителските доклади, които виждаме сега. Не е тайна, че ChatGPT може да прецака отговорите, но сега е ясно, че скорошната версия, дебютирала в Bing, може да не е готова за праймтайм.

Отговорите не трябва да се появяват при нормална употреба. Те вероятно ще доведат до „джейлбрейк“ на AI, като му предоставят конкретни подкани в опит да заобиколят правилата, които има. Като съобщава Ars Technica, вече са открити няколко експлойта, които заобикалят предпазните мерки на ChatGPT Bing. Това не е ново за чатбота, с няколко примера потребители, заобикалящи защитите на онлайн версията на ChatGPT.

Имахме възможност да тествайте някои от тези отговори, както добре. Въпреки че никога не сме виждали нещо подобно на докладите на потребителите в Reddit, Bing в крайна сметка се превърна в спорове.

Препоръки на редакторите

  • Топ автори изискват заплащане от фирми за изкуствен интелект за използване на работата им
  • GPT-4: как да използвате AI chatbot, който засрамва ChatGPT
  • Bing Chat се бори срещу забраните на работното място за AI
  • Google Bard вече може да говори, но може ли да заглуши ChatGPT?
  • Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.