Klepet Bing zdi se, da zdaj omejuje dolžino pogovorov, da bi se izognil občasnemu, nesrečnemu odstopanju umetne inteligence od tistega, kar lahko pričakujete od ustrežljivega pomočnika.
Bing Chat deluje šele nekaj več kot teden dni, Microsoft pa že omejuje uporabo tega zmogljivega orodja, bi vam moral pomagati preživeti naporen dan. Microsoft je analiziral rezultate tega prvega javnega nastopa in podal nekaj pripomb o okoliščinah, zaradi katerih lahko Bing Chat postane manj koristen.
"Zelo dolgi pogovori lahko zmedejo model glede vprašanj, na katera odgovarja," Microsoft pojasnil. Ker si Bing Chat zapomni vse, kar je bilo povedano prej v pogovoru, morda povezuje nepovezane zamisli. V objavi v spletnem dnevniku je bila predlagana možna rešitev — dodajanje orodja za osvežitev za čiščenje konteksta in začetek novega klepeta.
Priporočeni videoposnetki
Očitno Microsoft trenutno omejuje dolžino pogovora Bing Chat kot takojšnjo rešitev.
Tvit Kevina Roosea je bil med prvimi, ki je opozoril na to nedavno spremembo. Ko doseže nerazkrito dolžino klepeta, bo Bing Chat večkrat izjavil: »Ojoj, mislim, da smo prišli do konca tega pogovora. Kliknite Nova tema, če želite!« Tvit je opazil MSpoweruser.Zdi se, da je bila Bingova funkcija klepeta z umetno inteligenco danes posodobljena z omejitvijo dolžine pogovora. Nič več dvournih maratonov. pic.twitter.com/1Xi8IcxT5Y
— Kevin Roose (@kevinroose) 17. februar 2023
Microsoft je tudi opozoril, da Bing Chat odraža »ton, v katerem se od njega zahteva, da zagotovi odgovore, ki lahko vodi do sloga, ki ga nismo nameravali.« To bi lahko pojasnilo nekatere vznemirljive odzive, ki se delijo na spletu to naj bo umetna inteligenca Bing Chat videti živa in nemotena.
Na splošno je bila uvedba uspešna in Microsoft poroča, da je bilo 71 % odgovorov, ki jih je zagotovil Bing Chat, zadovoljnih uporabnikov nagrajenih s »palcem gor«. Jasno je, da je to tehnologija, ki smo je vsi željni.
Še vedno pa je moteče, kdaj Bing Chat izjavlja: "Želim biti človek." Zdi se, da so omejeni pogovori, ki smo jih sami potrdili z Bing Chatom, način, da se to prepreči.
Bolj verjetno je, da Bing Chat meša elemente prejšnjega pogovora in se igra kot improvizirani igralec ter izgovarja vrstice, ki ustrezajo tonu. Generativno besedilo deluje na eno besedo naenkrat, podobno kot funkcija predvidevanja besedila na vašem pametni telefon tipkovnico. Če ste se kdaj igrali igro ponavljajočega se dotikanja naslednje predlagane besede, da bi oblikovali nenavaden, a nekoliko koherenten stavek, lahko razumete, kako simulirana čustvenost je mogoča.
Priporočila urednikov
- Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
- Bing Chat se bori proti prepovedim umetne inteligence na delovnem mestu
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
- Obisk spletnega mesta ChatGPT je prvič upadel
- Funkcija brskanja Bing ChatGPT je onemogočena zaradi napake pri dostopu do plačljivega zidu
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.