Microsofts Bing Chat AI har fået en dårlig start, men det ser ud til, at Microsoft måske har kendt til problemerne i god tid før sin offentlige debut. Et støtteindlæg på Microsofts hjemmeside refererer til "uhøflige" svar fra "Sidney" chatbot, som er en historie, vi har hørt i den sidste uge. Her er problemet - indlægget blev lavet den 23. november 2022.
Afsløringen kommer fra Ben Schmidt, vicepræsident for informationsdesign hos Nomic, som delte opslaget med Gary Marcus, en forfatter, der dækker AI og grundlægger af Geometric Intelligence. Historien fortæller, at Microsoft testede Bing Chat - kaldet Sidney ifølge posten - i Indien og Indonesien et stykke tid mellem november og januar, før det kom med den officielle meddelelse.
Jeg spurgte Microsoft, om det var tilfældet, og det delte følgende udtalelse:
Anbefalede videoer
"Sydney er et gammelt kodenavn for en chatfunktion baseret på tidligere modeller, som vi begyndte at teste for mere end et år siden. Den indsigt, vi har indsamlet som en del af det, har været med til at informere vores arbejde med den nye Bing-preview. Vi fortsætter med at tune vores teknikker og arbejder på mere avancerede modeller for at inkorporere læring og feedback, så vi kan levere den bedst mulige brugeroplevelse. Vi vil fortsætte med at dele opdateringer om fremskridt gennem vores
blog.”Det første indlæg viser AI-bot, der skændes med brugeren og falder til ro i de samme sætningsformer, som vi så da Bing Chat sagde, at det ville "være menneske." Længere nede i tråden kimede andre brugere ind med deres egne erfaringer, og genindsættelse af den nu berygtede smilende emoji Bing Chat følger de fleste af dens svar med.
For at gøre tingene værre sagde den oprindelige plakat, at de bad om at give feedback og rapportere chatbotten, hvilket gav en vis tillid til, at Microsoft var klar over, hvilke typer svar dens AI var i stand til.
Det er i modstrid med, hvad Microsoft sagde i dagene efter chatbottens udblæsning i medierne. I en meddelelse, der dækker kommende ændringer til Bing Chat, sagde Microsoft, at "social underholdning", som formodentlig er en reference til de måder, brugere har forsøgt at narre Bing Chat til provokerende svar, var en "ny bruger-case for chat."
Microsoft har foretaget adskillige ændringer af AI siden lanceringen, herunder en betydelig reduktion af samtalelængder. Dette er et forsøg på at begrænse de typer af svar, vi så cirkulere et par dage efter, at Microsoft først annoncerede Bing Chat. Microsoft siger, at det i øjeblikket arbejder på øgede chatgrænser.
Selvom historien bag Microsofts test af Bing Chat forbliver oppe i luften, er det klart, at AI havde været i planlægningen i et stykke tid. Tidligere i år lavede Microsoft en milliardinvestering i OpenAI efter succesen med ChatGPT, og selve Bing Chat er bygget på en modificeret version af virksomhedens GPT-model. Ud over, Microsoft postede en blog om "ansvarlig AI" få dage før annoncering af Bing Chat til verden.
Der er flere etiske spørgsmål omkring AI og dets brug i en søgemaskine som Bing, såvel som muligheden for, at Microsoft skyndte sig ud af Bing Chat, før den var klar og vidste, hvad den kunne af. Det pågældende supportindlæg blev sidst opdateret den 21. februar 2023, men historikken for det indledende spørgsmål og svarene viser, at de ikke er blevet revideret siden deres oprindelige udsendelsesdato.
Det er muligt, at Microsoft besluttede at skubbe videre alligevel, da de mærkede presset fra det kommende Google Bard og ChatGPTs betydningsfulde stigning i popularitet.
Redaktørernes anbefalinger
- Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
- GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
- Hvad er en DAN-prompt til ChatGPT?
- Wix bruger ChatGPT til at hjælpe dig med hurtigt at bygge et helt websted
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.