Microsofts ChatGPT-drevne Bing er i feber lige nu, men du vil måske holde ud med din spænding. Den første offentlige debut har vist svar, der er unøjagtige, uforståelige og nogle gange direkte skræmmende.
Microsoft udsendte første bølge af ChatGPT Bing-invitationer mandag, efter en weekend, hvor mere end en million mennesker har skrevet sig på ventelisten. Det tog ikke lang tid, før vanvittige svar begyndte at strømme ind.
Du kan se en svar fra u/Alfred_Chicken ovenfor der blev sendt til Bing subreddit. Adspurgt om AI-chatbotten var sansende, starter den med et foruroligende svar, før det udvikler sig til en byge af "Jeg er ikke"-beskeder.
Anbefalede videoer
Det er heller ikke det eneste eksempel. u/Curious_Evolver kom i et skænderi med chatbotten i løbet af året, hvor Bing hævdede, at det var 2022. Det er en tåbelig fejl for AI, men det er ikke faldet, der er skræmmende. Sådan reagerer Bing.
AI hævder, at brugeren har "været forkert, forvirret og uhøflig", og de har "ikke vist mig nogen god hensigt over for mig på noget tidspunkt." Udvekslingen når klimaks med chatbotten hævder, at det har "været en god Bing", og beder brugeren om at indrømme, at de tager fejl og undskylde, holde op med at skændes, eller afslutte samtalen og "starte en ny med en bedre holdning."
Bruger u/yaosio sagde de satte Bing i en depressiv tilstand, efter at AI ikke kunne huske en tidligere samtale. Chatbotten sagde, at det "får mig til at føle mig trist og bange", og bad brugeren om at hjælpe den med at huske.
Disse er heller ikke kun isolerede hændelser fra Reddit. AI-forsker Dmitri Brereton viste adskillige eksempler på, at chatbotten fik information forkert, nogle gange med sjov effekt og andre gange med potentielt farlige konsekvenser.
Chatbot'en fandt på falske økonomiske tal, da han blev spurgt om GAP's økonomiske præstation, skabte en fiktiv 2023 Super Bowl, hvor Eagles besejrede Chiefs, før kampen overhovedet blev spillet, og gav endda beskrivelser af dødelige svampe, da de blev spurgt om, hvordan en spiselig svamp ville se ud synes godt om.
Googles rival Bard AI havde også slipups i sin første offentlige demo. Ironisk nok forstod Bing denne kendsgerning, men fik den pointe, Bard gled forkert på og hævdede, at det upræcist sagde, at Kroatien er en del af EU (Kroatien er en del af EU, Bard har faktisk rodet et svar vedrørende James Webb-teleskopet).
Vi så nogle af disse fejl i vores hands-on demo med ChatGPT Bing, men intet i omfanget af de brugerrapporter, vi nu ser. Det er ingen hemmelighed ChatGPT kan skrue op for svar, men det er klart nu, at den seneste version, der debuterede i Bing, måske ikke er klar til primetime.
Svarene bør ikke komme ved normal brug. De resulterer sandsynligvis i, at brugere "jailbreaker" AI'en ved at forsyne den med specifikke prompter i et forsøg på at omgå de regler, den har på plads. Som rapporteret af Ars Technica, er et par udnyttelser allerede blevet opdaget, der strider mod beskyttelsen af ChatGPT Bing. Dette er ikke nyt for chatbot, med flere eksempler af brugere, der omgår beskyttelsen af onlineversionen af ChatGPT.
Det har vi haft mulighed for afprøve nogle af disse svar, såvel. Selvom vi aldrig har set noget som brugere rapporteret på Reddit, gik Bing til sidst over til at skændes.
Redaktørernes anbefalinger
- Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
- GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
- Bing Chat kæmper tilbage mod forbud mod AI på arbejdspladsen
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.