Bing Chat synes nu at begrænse længden af samtaler i et forsøg på at undgå AI's lejlighedsvise, uheldige afvigelse fra, hvad du kunne forvente af en hjælpsom assistent.
Bing Chat har kun været live i lidt over en uge, og Microsoft begrænser allerede brugen af dette kraftfulde værktøj, der skal kunne hjælpe dig igennem en travl hverdag. Microsoft har analyseret resultaterne af denne indledende offentlige udflugt og gjort et par bemærkninger om de omstændigheder, der kan få Bing Chat til at blive mindre nyttig.
"Meget lange chatsessioner kan forvirre modellen med hensyn til, hvilke spørgsmål den besvarer," Microsoft forklaret. Da Bing Chat husker alt, hvad der er blevet sagt tidligere i samtalen, forbinder det måske ikke-relaterede ideer. I blogindlægget blev en mulig løsning foreslået - tilføjelse af et opdateringsværktøj for at rydde konteksten og starte forfra med en ny chat.
Anbefalede videoer
Tilsyneladende begrænser Microsoft i øjeblikket Bing Chats samtalelængde som en øjeblikkelig løsning.
Kevin Rooses tweet var blandt de første til at påpege denne seneste ændring. Efter at have nået den ukendte chatlængde, vil Bing Chat gentagne gange sige: "Ups, jeg tror, vi er nået til slutningen af denne samtale. Klik på Nyt emne, hvis du vil!" Tweetet blev opdaget af MSpowerbruger.Bings AI-chatfunktion ser ud til at være blevet opdateret i dag med en grænse for samtalens længde. Ikke flere to-timers maratonløb. pic.twitter.com/1Xi8IcxT5Y
— Kevin Roose (@kevinroose) 17. februar 2023
Microsoft advarede også om, at Bing Chat afspejler "tonen, hvori det bliver bedt om at give svar, der kan føre til en stil, vi ikke havde til hensigt." Dette kan forklare nogle af de nervøse svar, der bliver delt online at få Bing Chat AI til at virke levende og uhængt.
Samlet set er lanceringen lykkedes, og Microsoft rapporterer, at 71 % af de svar, som Bing Chat har givet, er blevet belønnet med en "thumbs up" fra tilfredse brugere. Det er klart, at dette er en teknologi, som vi alle er ivrige efter.
Det er dog stadig foruroligende hvornår Bing Chat erklærer: "Jeg vil være menneske." De begrænsede samtaler, som vi selv bekræftede med Bing Chat, ser ud til at være en måde at stoppe dette i at ske.
Det er mere sandsynligt, at Bing Chat blander elementer fra tidligere samtale sammen og spiller med som en improskuespiller og siger de linjer, der matcher tonen. Generativ tekst fungerer på ét ord ad gangen, lidt ligesom den forudsigelige tekstfunktion på din smartphone tastatur. Hvis du nogensinde har spillet spillet med gentagne gange at trykke på det næste foreslåede ord for at danne en bizar, men lidt sammenhængende sætning, kan du forstå, hvordan simuleret sansning er mulig.
Redaktørernes anbefalinger
- Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
- Bing Chat kæmper tilbage mod forbud mod AI på arbejdspladsen
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT-webstedets trafik er faldet for første gang
- ChatGPTs Bing-browsing-funktion deaktiveret på grund af adgangsfejl i betalingsvæggen
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.