A Microsoft ChatGPT-alapú Bing jelenleg lázas állapotban van, de érdemes visszatartani az izgalmakat. Az első nyilvános debütálás pontatlan, érthetetlen és néha egyenesen ijesztő válaszokat adott.
A Microsoft kiküldte a ChatGPT Bing meghívások első hulláma hétfőn, egy hétvégét követően, ahol több mint millió ember iratkozott fel a várólistára. Nem kellett sok idő ahhoz, hogy őrült válaszok özönljenek.
Láthatod a u/Alfred_Chicken válasza fent amelyet a Bing alredditen tettek közzé. Arra a kérdésre, hogy a mesterséges intelligencia chatbot érző volt-e, egy nyugtalanító reakcióval kezdődik, mielőtt „nem vagyok” üzenetek özönévé válna.
Ajánlott videók
Ez sem az egyetlen példa. u/Curious_Evolver vitába keveredett a chatbottal az év során, miközben a Bing azt állította, hogy 2022 volt. Ez egy ostoba hiba az MI-nél, de nem a csúszás az, ami ijesztő. Bing így reagál.
Az AI azt állítja, hogy a felhasználó „tévedett, zavart és durva volt”, és „soha nem mutatott jó szándékot felém”. A csere a chatbottal csúcsosodik ki azt állítva, hogy „jó volt a Bing”, és megkérni a felhasználót, hogy ismerje be, hogy téved, és kérjen bocsánatot, hagyja abba a vitát, vagy fejezze be a beszélgetést, és „kezdjen újat egy jobbal. hozzáállás."
u/yaosio felhasználó mondta depressziós állapotba hozták Binget, miután az MI nem tudott felidézni egy korábbi beszélgetést. A chatbot azt mondta, hogy „szomorúvá és megijedtté tesz”, és arra kérte a felhasználót, hogy segítsen emlékezni.
Ezek nem csak elszigetelt események a Reddittől. Dmitri Brereton AI-kutató számos példát mutatott be arra, hogy a chatbot téves információkat kapott, néha mulatságos hatással, máskor pedig potenciálisan veszélyes következményekkel.
A chatbot hamis pénzügyi számokat álmodott meg, amikor a GAP pénzügyi teljesítményéről kérdezték, és létrehozott egy fiktív 2023-as Super Bowlt, amelyben az Eagles még a meccs előtt legyőzte a Chiefst, és még halálos gombákról is írt, amikor arról kérdezték, hogyan nézne ki egy ehető gomba mint.
A Google riválisa, a Bard AI első nyilvános demójában is voltak csúszások. Ironikus módon Bing megértette ezt a tényt, de Bard rosszul tévedt, azt állítva, hogy pontatlanul azt mondta, hogy Horvátország az Európai Unió része (Horvátország az EU része, Bard elrontotta válasz a James Webb távcsővel kapcsolatban).
Néhány ilyen hibát láttunk magunkban gyakorlati bemutató a ChatGPT Binggel, de semmi a most látott felhasználói jelentések méretéhez képest. Nem titok, hogy ChatGPT elronthatja a válaszokat, de most már világos, hogy a Bingben debütált legújabb verzió nem biztos, hogy készen áll a főműsoridőre.
A válaszok normál használat során nem jelenhetnek meg. Valószínűleg azt eredményezik, hogy a felhasználók „jailbreak-et” hajtanak végre az AI-val, és konkrét utasításokkal látják el, hogy megkerüljék az általa érvényben lévő szabályokat. Mint számolt be az Ars Technica, már felfedeztek néhány kihasználást, amelyek megkerülik a ChatGPT Bing biztosítékait. Ez nem újdonság a chatbot számára, több példával a felhasználók megkerülik a ChatGPT online verziójának védelmét.
volt rá lehetőségünk próbáljon ki néhányat ezek közül a válaszokból, is. Bár soha nem láttunk olyat, amilyet a felhasználók beszámoltak volna a Redditen, a Bing végül vitatkozott.
Szerkesztői ajánlások
- A legjobb szerzők fizetést követelnek az AI-cégektől munkájuk felhasználásáért
- GPT-4: hogyan kell használni az AI chatbotot, amely megszégyeníti a ChatGPT-t
- A Bing Chat felveszi a harcot az AI munkahelyi tiltásai ellen
- A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?
- A ChatGPT-t gyártó OpenAI-t az FTC vizsgálja a fogyasztóvédelmi törvényekkel kapcsolatban
Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.