Microsofts Bing Chat AI har haft en tråkig start, men det verkar som att Microsoft kan ha känt till problemen långt innan dess offentliga debut. Ett stödinlägg på Microsofts webbplats refererar till "oförskämda" svar från "Sidney"-chatboten, vilket är en historia vi har hört den senaste veckan. Här är problemet – inlägget gjordes den 23 november 2022.
Uppenbarelsen kommer från Ben Schmidt, vice vd för informationsdesign på Nomic, som delade inlägget med Gary Marcus, en författare som täcker AI och grundare av Geometric Intelligence. Historien säger att Microsoft testade Bing Chat – kallad Sidney, enligt inlägget – i Indien och Indonesien någon gång mellan november och januari innan det gjorde det officiella tillkännagivandet.
Jag frågade Microsoft om det var fallet, och det delade följande uttalande:
Rekommenderade videor
"Sydney är ett gammalt kodnamn för en chattfunktion baserat på tidigare modeller som vi började testa för mer än ett år sedan. De insikter vi samlat in som en del av det har hjälpt till att informera vårt arbete med den nya Bing-förhandsvisningen. Vi fortsätter att finjustera våra tekniker och arbetar på mer avancerade modeller för att införliva lärdomar och feedback så att vi kan leverera den bästa möjliga användarupplevelsen. Vi kommer att fortsätta att dela uppdateringar om framsteg genom vår
blogg.”Det första inlägget visar AI-boten som argumenterar med användaren och sätter sig i samma meningsformer som vi såg när Bing Chat sa att det ville "vara mänsklig.” Längre ner i tråden hörde andra användare in med sina egna erfarenheter, att lägga om den nu ökända leende emojin Bing Chat följer de flesta av dess svar med.
För att göra saken värre sa den första affischen att de bad om att ge feedback och rapportera chatboten, vilket gav en viss tro på att Microsoft var medveten om vilka typer av svar som dess AI var kapabel till.
Det strider mot vad Microsoft sa dagarna efter chatbotens utblåsning i media. I ett tillkännagivande som täcker kommande ändringar av Bing Chat, sa Microsoft att "social underhållning", som förmodligen är en hänvisning till hur användare har försökt lura Bing Chat till provocerande svar, var ett "nytt användarfall för chatt."
Microsoft har gjort flera ändringar av AI sedan lanseringen, inklusive att kraftigt minska konversationslängderna. Detta är ett försök att stävja de typer av svar vi såg cirkulera några dagar efter att Microsoft först tillkännagav Bing Chat. Microsoft säger att det för närvarande arbetar på öka chattgränserna.
Även om historien bakom Microsofts testning av Bing Chat förblir i luften, är det tydligt att AI hade varit i planeringen ett tag. Tidigare i år gjorde Microsoft en mångmiljardinvesteringar i OpenAI efter framgången för ChatGPT, och själva Bing Chat bygger på en modifierad version av företagets GPT-modell. Dessutom, Microsoft publicerade en blogg om "ansvarig AI" bara några dagar innan vi tillkännager Bing Chat för världen.
Det finns flera etiska frågor kring AI och dess användning i en sökmotor som Bing, liksom möjligheten att Microsoft rusade ut Bing Chat innan den var klar och visste vad den kunde av. Supportinlägget i fråga uppdaterades senast den 21 februari 2023, men historiken för den första frågan och svaren visar att de inte har reviderats sedan det ursprungliga publiceringsdatumet.
Det är möjligt att Microsoft bestämde sig för att gå vidare i alla fall och kände pressen från det kommande Google Bard och den betydelsefulla ökningen i popularitet för ChatGPT.
Redaktörens rekommendationer
- Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
- GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
- Vad är en DAN-prompt för ChatGPT?
- Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.