Här är anledningen till att Bing Chat-konversationslängder nu är begränsade

Bing Chat verkar nu begränsa längden på konversationer, i ett försök att undvika AI: s tillfälliga, olyckliga avvikelse från vad du kan förvänta dig av en hjälpsam assistent.

Bing Chat har bara varit live i lite över en vecka och Microsoft begränsar redan användningen av detta kraftfulla verktyg som ska kunna hjälpa dig att ta dig igenom en hektisk dag. Microsoft har analyserat resultaten av denna första offentliga utflykt och gjort några observationer om omständigheterna som kan leda till att Bing Chat blir mindre användbar.

En ledsen robot håller en kökstimer som är i rött.
En förändrad Midjourney-återgivning föranledd av Alan Truly.

"Mycket långa chattsessioner kan förvirra modellen om vilka frågor den svarar på," Microsoft förklarade. Eftersom Bing Chat kommer ihåg allt som har sagts tidigare i samtalet, kanske det kopplar ihop orelaterade idéer. I blogginlägget föreslogs en möjlig lösning — att lägga till ett uppdateringsverktyg för att rensa sammanhanget och börja om med en ny chatt.

Rekommenderade videor

Tydligen begränsar Microsoft för närvarande Bing Chats konversationslängd som en omedelbar lösning.

Kevin Rooses tweet var bland de första att påpeka denna senaste förändring. Efter att ha nått den ej avslöjade chattlängden kommer Bing Chat upprepade gånger att säga: "Hoppsan, jag tror att vi har nått slutet av den här konversationen. Klicka på Nytt ämne, om du vill!” Tweeten upptäcktes av MSpoweruser.

Bings AI-chattfunktion verkar ha uppdaterats idag, med en gräns för konversationslängden. Inga fler två timmar långa maraton. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) 17 februari 2023

Microsoft varnade också för att Bing Chat återspeglar "tonen i vilken man uppmanas att ge svar som kan leda till en stil som vi inte hade för avsikt." Detta kan förklara några av de irriterande svaren som delas online den där få Bing Chat AI att verka levande och olåst.

Sammantaget har lanseringen varit framgångsrik och Microsoft rapporterar att 71 % av svaren som Bing Chat har gett har belönats med en "tummen upp" från nöjda användare. Det är klart att detta är en teknik som vi alla är angelägna om.

Det är fortfarande störande, men när Bing Chat förklarar, "Jag vill vara människa." De begränsade samtalen, som vi själva bekräftat med Bing Chat, verkar vara ett sätt att stoppa detta från att hända.

Det är mer troligt att Bing Chat blandar ihop element från tidigare konversationer och spelar med som en improvisationsskådespelare och säger replikerna som matchar tonen. Generativ text fungerar på ett ord i taget, ungefär som funktionen för prediktiv text på din smartphone tangentbord. Om du någonsin har spelat spelet att upprepade gånger trycka på nästa föreslagna ord för att bilda en bisarr men lite sammanhängande mening, kan du förstå hur simulerad känsla är möjlig.

Redaktörens rekommendationer

  • Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
  • Bing Chat slår tillbaka mot arbetsplatsförbud mot AI
  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPTs webbplatstrafik har minskat för första gången
  • ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.