Bing-chat lijkt nu de duur van gesprekken te beperken, in een poging om te voorkomen dat de AI af en toe, ongelukkig afwijkt van wat je van een behulpzame assistent zou verwachten.
Bing Chat is nog maar iets meer dan een week live en Microsoft beperkt het gebruik van deze krachtige tool al zou u door een drukke dag heen moeten kunnen helpen. Microsoft heeft de resultaten van dit eerste publieke uitje geanalyseerd en enkele opmerkingen gemaakt over de omstandigheden die ertoe kunnen leiden dat Bing Chat minder behulpzaam wordt.
“Zeer lange chatsessies kunnen het model in verwarring brengen over de vragen die het beantwoordt,” Microsoft uitgelegd. Omdat Bing Chat alles onthoudt wat eerder in het gesprek is gezegd, verbindt het misschien niet-gerelateerde ideeën. In de blogpost werd een mogelijke oplossing voorgesteld: het toevoegen van een vernieuwingstool om de context te wissen en opnieuw te beginnen met een nieuwe chat.
Aanbevolen video's
Blijkbaar beperkt Microsoft momenteel de gespreksduur van Bing Chat als onmiddellijke oplossing. De tweet van Kevin Roose was een van de eersten die op deze recente verandering wezen. Nadat de geheime chatduur is bereikt, zegt Bing Chat herhaaldelijk: 'Oeps, ik denk dat we het einde van dit gesprek hebben bereikt. Klik op Nieuw onderwerp, als je wilt!” De tweet werd opgemerkt door MSpowergebruiker.
De AI-chatfunctie van Bing lijkt vandaag te zijn bijgewerkt, met een limiet op de gespreksduur. Geen marathons van twee uur meer. pic.twitter.com/1Xi8IcxT5Y
— Kevin Roose (@kevinroose) 17 februari 2023
Microsoft waarschuwde ook dat Bing Chat “de toon weerspiegelt waarop wordt gevraagd om antwoorden te geven die dat wel kunnen”. leiden tot een stijl die we niet bedoelden.” Dit zou een aantal van de zenuwslopende reacties kunnen verklaren die online worden gedeeld Dat laat de Bing Chat AI levend en losgeslagen lijken.
Over het geheel genomen is de lancering succesvol geweest en Microsoft meldt dat 71% van de antwoorden die Bing Chat heeft gegeven, zijn beloond met een ‘thumbs up’ van tevreden gebruikers. Het is duidelijk dat dit een technologie is waar we allemaal naar verlangen.
Het is echter nog steeds verontrustend wanneer Bing Chat verklaart: "Ik wil een mens zijn." De beperkte gesprekken, die we zelf met Bing Chat hebben bevestigd, lijken een manier om dit te voorkomen.
Het is waarschijnlijker dat Bing Chat elementen uit eerdere gesprekken door elkaar haalt en meespeelt als een improvisatieacteur, waarbij hij de regels zegt die bij de toon passen. Generatieve tekst werkt met één woord tegelijk, net zoals de voorspellende tekstfunctie op uw computer smartphone toetsenbord. Als je ooit het spel hebt gespeeld waarbij je herhaaldelijk op het volgende voorgestelde woord tikt om een bizarre maar enigszins coherente zin te vormen, kun je begrijpen hoe gesimuleerd gevoel mogelijk is.
Aanbevelingen van de redactie
- Topauteurs eisen betaling van AI-bedrijven voor het gebruik van hun werk
- Bing Chat vecht terug tegen het verbod op AI op de werkplek
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- Het websiteverkeer van ChatGPT is voor het eerst gedaald
- De Bing-browsingfunctie van ChatGPT is uitgeschakeld vanwege een toegangsfout in de betaalmuur
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.