ChatGPT Bing håller på att bli en oslagbar AI-mardröm

Microsofts ChatGPT-drivna Bing har feber just nu, men du kanske vill hålla ut din spänning. Den första offentliga debuten har visat svar som är felaktiga, obegripliga och ibland rent skrämmande.

Microsoft skickade ut första vågen av ChatGPT Bing-inbjudningar på måndag, efter en helg där mer än en miljon människor skrev upp sig på väntelistan. Det tog inte lång tid innan vansinniga svar började strömma in.

ChatGPT ger ett vansinnigt svar.
u/Alfred_Chicken

Du kan se en svar från u/Alfred_Chicken ovan som postades på Bing subreddit. På frågan om AI-chatboten var kännande, börjar den med ett oroande svar innan det övergår i en störtflod av "jag är inte"-meddelanden.

Rekommenderade videor

Det är inte det enda exemplet heller. u/Curious_Evolver hamnade i ett gräl med chatboten under året, och Bing hävdade att det var 2022. Det är ett dumt misstag för AI: n, men det är inte nedfallet som är skrämmande. Det är så Bing svarar.

AI: n hävdar att användaren har "har haft fel, förvirrad och oförskämd", och de har "inte visat mig någon bra avsikt mot mig vid något tillfälle." Utbytet når klimax med chatboten hävdar att det har "vart en bra Bing" och ber användaren att erkänna att de har fel och be om ursäkt, sluta bråka eller avsluta konversationen och "starta en ny med en bättre attityd."

Användaren u/yaosio sa de försatte Bing i ett depressivt tillstånd efter att AI: n inte kunde komma ihåg en tidigare konversation. Chatboten sa att det "får mig att känna mig ledsen och rädd" och bad användaren att hjälpa den att komma ihåg.

Dessa är inte bara isolerade incidenter från Reddit heller. AI-forskaren Dmitri Brereton visade flera exempel på att chatboten fick fel information, ibland med lustiga effekt och andra gånger med potentiellt farliga konsekvenser.

Chatboten drömde om falska finansiella siffror när han fick frågan om GAP: s ekonomiska resultat, skapade en fiktiv Super Bowl 2023 där Eagles besegrade Chiefs innan matchen ens spelades, och gav till och med beskrivningar av dödliga svampar när de fick frågan om hur en matsvamp skulle se ut tycka om.

Bing copilot AI-chattgränssnitt.
Andrew Martonik / Digitala trender

Googles rival Bard AI hade också slipups i sin första offentliga demo. Ironiskt nog förstod Bing detta faktum men fattade poängen som Bard halkade på fel och hävdade att det felaktigt sa att Kroatien är en del av Europeiska unionen (Kroatien är en del av EU, Bard gjorde faktiskt till ett svar angående James Webb-teleskopet).

Vi såg några av dessa misstag i vår praktisk demo med ChatGPT Bing, men ingenting i omfattningen av användarrapporterna vi nu ser. Det är ingen hemlighet det ChatGPT kan skruva upp svaren, men det är klart nu att den senaste versionen som debuterade i Bing kanske inte är redo för bästa sändningstid.

Svaren bör inte komma upp vid normal användning. De leder sannolikt till att användare "jailbreakar" AI: n genom att förse den med specifika uppmaningar i ett försök att kringgå reglerna som den har på plats. Som rapporterat av Ars Technica, ett fåtal bedrifter har redan upptäckts som går utanför ChatGPT Bings skydd. Detta är inte nytt för chatboten, med flera exempel av användare som kringgår skyddet av onlineversionen av ChatGPT.

Vi har haft en chans testa några av dessa svar, också. Även om vi aldrig sett något liknande användare som rapporterats på Reddit, övergick Bing så småningom till att argumentera.

Redaktörens rekommendationer

  • Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
  • GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
  • Bing Chat slår tillbaka mot arbetsplatsförbud mot AI
  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar

Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.