Microsoftov Bing Chat AI se je začelo klavrno, vendar se zdi, da je Microsoft morda vedel za težave precej pred javnim nastopom. Podporno mesto na Microsoftovem spletnem mestu se sklicuje na "nesramne" odgovore klepetalnega robota "Sidney", kar je zgodba, ki smo jo slišali zadnji teden. Tu je težava – objava je bila objavljena 23. novembra 2022.
Razodetje prihaja iz Ben Schmidt, podpredsednica informacijskega oblikovanja pri Nomic, ki je objavo delila z Gary Marcus, avtor, ki pokriva AI in ustanovitelj Geometric Intelligence. Zgodba pravi, da je Microsoft preizkusil Bing Chat - imenovan Sidney, glede na objavo - v Indiji in Indoneziji med novembrom in januarjem, preden je objavil uradno objavo.
Vprašal sem Microsoft, ali je temu tako, in delil je naslednjo izjavo:
Priporočeni videoposnetki
»Sydney je staro kodno ime za funkcijo klepeta, ki temelji na prejšnjih modelih, ki smo jih začeli testirati pred več kot enim letom. Vpogledi, ki smo jih zbrali kot del tega, so pomagali informirati naše delo z novim predogledom Bing. Še naprej usklajujemo naše tehnike in delamo na naprednejših modelih, da bi vključili spoznanja in povratne informacije, da bi lahko zagotovili najboljšo možno uporabniško izkušnjo. Še naprej bomo delili posodobitve o napredku prek našega
blog.”Začetna objava prikazuje, kako se bot z umetno inteligenco prepira z uporabnikom in se usede v iste stavčne oblike, kot smo jih videli, ko Bing Chat je dejal, da želi »biti človek.” Nadalje so se drugi uporabniki oglasili s svojimi lastnimi izkušnjami in ponovno objavili zdaj zloglasni nasmejani emoji, s katerim Bing Chat sledi večini svojih odzivov.
Da bi bile zadeve še hujše, je prvotni poster rekel, da so prosili za povratne informacije in poročanje o klepetalnem robotu, kar je dalo nekaj verodostojnosti, da se je Microsoft zavedal vrst odzivov, ki jih je sposoben njegov AI.
To je v nasprotju s tem, kar je Microsoft rekel v dneh po izbruhu chatbota v medijih. V obvestilnem pokrovu prihajajoče spremembe storitve Bing Chat, je Microsoft dejal, da je »družabna zabava«, ki se verjetno nanaša na načine, na katere so uporabniki poskušali pretentati Bing Chat v provokativne odzive, »nov uporabniški primer za klepet«.
Microsoft je od lansiranja umetne inteligence naredil več sprememb, vključno z velikim zmanjšanjem dolžine pogovorov. To je prizadevanje za omejitev vrst odzivov, ki smo jih videli, ki krožijo nekaj dni po tem, ko je Microsoft prvič objavil Bing Chat. Microsoft pravi, da trenutno dela na tem povečanje omejitev klepeta.
Čeprav zgodba o Microsoftovem testiranju Bing Chata ostaja v zraku, je jasno, da je AI že nekaj časa načrtoval. V začetku tega leta je Microsoft naredil večmilijardna naložba v OpenAI po uspehu ChatGPT, sam Bing Chat pa je zgrajen na spremenjeni različici modela GPT podjetja. poleg tega Microsoft je objavil blog o "odgovorni AI" le nekaj dni pred objavo Bing Chata svetu.
V zvezi z umetno inteligenco in njeno uporabo v iskalniku, kot je Bing, je več etičnih vprašanj možnost, da je Microsoft pohitel z Bing Chatom, preden je bil pripravljen in vedel, kaj zmore od. Zadevna objava za podporo je bila nazadnje posodobljena 21. februarja 2023, vendar zgodovina začetnega vprašanja in odgovorov kaže, da od prvotnega datuma objave niso bili spremenjeni.
Možno je, da se je Microsoft vseeno odločil, da bo nadaljeval, ker je čutil pritisk prihajajočega Google Bard in izjemen porast priljubljenosti ChatGPT.
Priporočila urednikov
- Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
- GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
- Kaj je DAN poziv za ChatGPT?
- Wix uporablja ChatGPT, da vam pomaga hitro zgraditi celotno spletno mesto
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.