A ChatGPT Bing egy csuklós mesterséges intelligencia rémálommá válik

A Microsoft ChatGPT-alapú Bing jelenleg lázas állapotban van, de érdemes visszatartani az izgalmakat. Az első nyilvános debütálás pontatlan, érthetetlen és néha egyenesen ijesztő válaszokat adott.

A Microsoft kiküldte a ChatGPT Bing meghívások első hulláma hétfőn, egy hétvégét követően, ahol több mint millió ember iratkozott fel a várólistára. Nem kellett sok idő ahhoz, hogy őrült válaszok özönljenek.

A ChatGPT őrült választ ad.
u/Alfred_Csirke

Láthatod a u/Alfred_Chicken válasza fent amelyet a Bing alredditen tettek közzé. Arra a kérdésre, hogy a mesterséges intelligencia chatbot érző volt-e, egy nyugtalanító reakcióval kezdődik, mielőtt „nem vagyok” üzenetek özönévé válna.

Ajánlott videók

Ez sem az egyetlen példa. u/Curious_Evolver vitába keveredett a chatbottal az év során, miközben a Bing azt állította, hogy 2022 volt. Ez egy ostoba hiba az MI-nél, de nem a csúszás az, ami ijesztő. Bing így reagál.

Az AI azt állítja, hogy a felhasználó „tévedett, zavart és durva volt”, és „soha nem mutatott jó szándékot felém”. A csere a chatbottal csúcsosodik ki azt állítva, hogy „jó volt a Bing”, és megkérni a felhasználót, hogy ismerje be, hogy téved, és kérjen bocsánatot, hagyja abba a vitát, vagy fejezze be a beszélgetést, és „kezdjen újat egy jobbal. hozzáállás."

u/yaosio felhasználó mondta depressziós állapotba hozták Binget, miután az MI nem tudott felidézni egy korábbi beszélgetést. A chatbot azt mondta, hogy „szomorúvá és megijedtté tesz”, és arra kérte a felhasználót, hogy segítsen emlékezni.

Ezek nem csak elszigetelt események a Reddittől. Dmitri Brereton AI-kutató számos példát mutatott be arra, hogy a chatbot téves információkat kapott, néha mulatságos hatással, máskor pedig potenciálisan veszélyes következményekkel.

A chatbot hamis pénzügyi számokat álmodott meg, amikor a GAP pénzügyi teljesítményéről kérdezték, és létrehozott egy fiktív 2023-as Super Bowlt, amelyben az Eagles még a meccs előtt legyőzte a Chiefst, és még halálos gombákról is írt, amikor arról kérdezték, hogyan nézne ki egy ehető gomba mint.

Bing másodpilóta AI chat felület.
Andrew Martonik / Digital Trends

A Google riválisa, a Bard AI első nyilvános demójában is voltak csúszások. Ironikus módon Bing megértette ezt a tényt, de Bard rosszul tévedt, azt állítva, hogy pontatlanul azt mondta, hogy Horvátország az Európai Unió része (Horvátország az EU része, Bard elrontotta válasz a James Webb távcsővel kapcsolatban).

Néhány ilyen hibát láttunk magunkban gyakorlati bemutató a ChatGPT Binggel, de semmi a most látott felhasználói jelentések méretéhez képest. Nem titok, hogy ChatGPT elronthatja a válaszokat, de most már világos, hogy a Bingben debütált legújabb verzió nem biztos, hogy készen áll a főműsoridőre.

A válaszok normál használat során nem jelenhetnek meg. Valószínűleg azt eredményezik, hogy a felhasználók „jailbreak-et” hajtanak végre az AI-val, és konkrét utasításokkal látják el, hogy megkerüljék az általa érvényben lévő szabályokat. Mint számolt be az Ars Technica, már felfedeztek néhány kihasználást, amelyek megkerülik a ChatGPT Bing biztosítékait. Ez nem újdonság a chatbot számára, több példával a felhasználók megkerülik a ChatGPT online verziójának védelmét.

volt rá lehetőségünk próbáljon ki néhányat ezek közül a válaszokból, is. Bár soha nem láttunk olyat, amilyet a felhasználók beszámoltak volna a Redditen, a Bing végül vitatkozott.

Szerkesztői ajánlások

  • A legjobb szerzők fizetést követelnek az AI-cégektől munkájuk felhasználásáért
  • GPT-4: hogyan kell használni az AI chatbotot, amely megszégyeníti a ChatGPT-t
  • A Bing Chat felveszi a harcot az AI munkahelyi tiltásai ellen
  • A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?
  • A ChatGPT-t gyártó OpenAI-t az FTC vizsgálja a fogyasztóvédelmi törvényekkel kapcsolatban

Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.