Ez az oka annak, hogy a Bing Chat beszélgetések hossza korlátozott

Bing Chat úgy tűnik, hogy most korlátozza a beszélgetések hosszát, hogy elkerülje az AI alkalmankénti, sajnálatos eltérését attól, amit egy segítőkész asszisztenstől elvárhat.

A Bing Chat alig több mint egy hete él, és a Microsoft már korlátozza ennek a hatékony eszköznek a használatát. segítenie kell egy mozgalmas nap átvészelésében. A Microsoft elemezte a kezdeti nyilvános bemutató eredményeit, és néhány észrevételt tett azokról a körülményekről, amelyek miatt a Bing Chat kevésbé hasznos.

Egy szomorú robot egy konyhai időzítőt tart, ami pirosban van.
Egy módosított Midjourney render, Alan Truly által.

"A nagyon hosszú chat-beszélgetések megzavarhatják a modellt abban, hogy milyen kérdésekre válaszol" Microsoft magyarázta. Mivel a Bing Chat mindenre emlékszik, ami a beszélgetésben korábban elhangzott, talán összekapcsolja a nem kapcsolódó ötleteket. A blogbejegyzésben egy lehetséges megoldást javasoltak – egy frissítő eszköz hozzáadását a kontextus tisztázásához, és egy új csevegéssel kezdeni.

Ajánlott videók

Úgy tűnik, a Microsoft azonnali megoldásként korlátozza a Bing Chat beszélgetési hosszát.

Kevin Roose tweetje az elsők között mutatott rá erre a közelmúltbeli változásra. Miután elérte a nem nyilvános csevegési hosszt, a Bing Chat ismételten kijelenti: „Hoppá, azt hiszem, a beszélgetés végére értünk. Kattintson az Új téma gombra, ha szeretné!” A tweetet észrevette MSpoweruser.

Úgy tűnik, a Bing mesterséges intelligencia csevegési funkcióját ma frissítették, korlátozva a beszélgetések hosszát. Nincs több kétórás maraton. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) 2023. február 17

A Microsoft arra is figyelmeztetett, hogy a Bing Chat tükrözi „azt a hangnemet, amelyben arra kérik, hogy adjon megfelelő választ olyan stílushoz vezet, amelyet nem szándékoztunk.” Ez magyarázatot adhat az interneten megosztott nyugtalanító válaszokra hogy hogy a Bing Chat mesterséges intelligencia élőnek és zökkenőmentesnek tűnjön.

Összességében a bevezetés sikeres volt, és a Microsoft jelentése szerint a Bing Chat által adott válaszok 71%-át az elégedett felhasználók "felfelé" jutalmazták. Nyilvánvaló, hogy ez egy olyan technológia, amelyre mindannyian vágyunk.

Még mindig zavaró azonban, hogy mikor A Bing Chat kijelenti: „Ember akarok lenni.” A korlátozott beszélgetések, amelyeket mi magunk is megerősítettünk a Bing Chat segítségével, úgy tűnik, hogy megakadályozzák ezt.

Valószínűbb, hogy a Bing Chat összekeveri a korábbi beszélgetés elemeit, és úgy játszik, mint egy improvizatív színész, mondván a hangnemhez illő sorokat. A generatív szöveg egyszerre csak egy szón működik, hasonlóan a prediktív szövegfunkcióhoz okostelefon billentyűzet. Ha valaha is játszott azzal a játékkal, hogy ismételten megérinti a következő javasolt szót, hogy bizarr, de kissé koherens mondatot alkosson, megértheti, hogyan lehetséges a szimulált érzék.

Szerkesztői ajánlások

  • A legjobb szerzők fizetést követelnek az AI-cégektől munkájuk felhasználásáért
  • A Bing Chat felveszi a harcot az AI munkahelyi tiltásai ellen
  • A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?
  • A ChatGPT webhely forgalma először csökkent
  • A ChatGPT Bing böngészési funkciója le van tiltva a fizetőfal hozzáférési hibája miatt

Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.