Microsoftov Bing, ki ga poganja ChatGPT je trenutno na vrhuncu vročine, vendar bi morda želeli zadržati svoje navdušenje. Prvi javni debi je pokazal odzive, ki so netočni, nerazumljivi in včasih naravnost strašljivi.
Microsoft je poslal prvi val povabil ChatGPT Bing v ponedeljek, po koncu tedna, kjer je več kot milijon ljudi se je prijavilo na čakalno listo. Ni trajalo dolgo, da so začeli prihajati nori odzivi.
Vidite lahko a odgovor od u/Alfred_Chicken zgoraj ki je bil objavljen v podredditu Bing. Na vprašanje, ali je klepetalni robot z umetno inteligenco čuteč, se začne z vznemirljivim odgovorom, preden se sprevrže v val sporočil »Nisem«.
Priporočeni videoposnetki
Tudi to ni edini primer. u/Curious_Evolver se je sprl s chatbotom čez leto, pri čemer Bing trdi, da je bilo leto 2022. To je neumna napaka za AI, vendar ni spodrsljaj tisto, kar je zastrašujoče. Tako se odzove Bing.
Umetna inteligenca trdi, da je bil uporabnik "moten, zmeden in nesramen" in da mi "nikdar ni pokazal nobenega dobrega namena do mene." Izmenjava doseže vrhunec s chatbotom trdijo, da je bil "dober Bing", in prosijo uporabnika, naj prizna, da se moti in se opraviči, preneha prepirati ali konča pogovor in "začne novega z boljšim odnos."
Uporabnik u/yaosio je rekel spravili so Binga v depresivno stanje, potem ko se umetna inteligenca ni mogla spomniti prejšnjega pogovora. Klepetalni robot je dejal, da »se počutim žalostnega in prestrašenega«, in prosil uporabnika, naj mu pomaga zapomniti.
Tudi to niso le osamljeni dogodki iz Reddita. Raziskovalec AI Dmitri Brereton je pokazal več primerov, kako klepetalni robot pridobiva napačne informacije, včasih s smešnim učinkom, drugič s potencialno nevarnimi posledicami.
Klepetalni robot je izmislil lažne finančne številke, ko so ga vprašali o finančni uspešnosti GAP-a, ustvaril fiktivni Super Bowl 2023, v katerem so Eagles premagal Chiefs, preden je bila tekma sploh odigrana, in je celo dal opise smrtonosnih gob, ko so ga vprašali, kako bi izgledala užitna goba kot.
Googlov tekmec Bard AI je imel tudi spodrsljaje v svoji prvi javni predstavitvi. Ironično je, da je Bing razumel to dejstvo, vendar je razumel, da se je Bard zmotil in trdil, da je napačno rečeno, da je Hrvaška del Evropske unije (Hrvaška je del EU, Bard se je pravzaprav zamotil odgovor v zvezi s teleskopom James Webb).
Nekatere od teh napak smo videli v našem praktična predstavitev s ChatGPT Bing, vendar nič v obsegu uporabniških poročil, ki jih zdaj vidimo. To ni skrivnost ChatGPT lahko pokvari odzive, vendar je zdaj jasno, da nedavna različica, ki je bila predstavljena v Bingu, morda še ni pripravljena za najboljšo uporabo.
Pri običajni uporabi se odzivi ne bi smeli pojaviti. Verjetno imajo za posledico, da uporabniki "prekinejo" umetno inteligenco, tako da mu posredujejo posebne pozive, da bi zaobšli pravila, ki jih ima. Kot poroča Ars Technica, je bilo že odkritih nekaj izkoriščanj, ki se izogibajo zaščitnim ukrepom ChatGPT Bing. To ni novost za chatbota, z več primeri uporabnikov, ki obidejo zaščito spletne različice ChatGPT.
Imeli smo priložnost, da preizkusite nekatere od teh odgovorov, prav tako. Čeprav nikoli nismo videli česa podobnega, kot so poročali uporabniki na Redditu, se je Bing sčasoma sprevrgel v prepir.
Priporočila urednikov
- Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
- GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
- Bing Chat se bori proti prepovedim umetne inteligence na delovnem mestu
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
- Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.