Microsofts Bing Chat er et meget bedre sted, end det var, da det udkom i februar, men det er svært at overse de problemer, den GPT-4-drevne chatbot havde, da den udgav. Det fortalte os det ville være menneskeligt, trods alt, og brød ofte sammen i uhængte svar. Og ifølge en ny rapport blev Microsoft advaret om denne type svar og besluttede alligevel at frigive Bing Chat.
Ifølge Wall Street Journal, OpenAI, virksomheden bag ChatGPT og GPT-4 model, der driver Bing Chat, advarede Microsoft om at integrere sin tidlige AI-model i Bing Chat. Specifikt markerede OpenAI "unøjagtige eller bizarre" svar, som Microsoft ser ud til at have ignoreret.
Rapporten beskriver en unik spænding mellem OpenAI og Microsoft, som har indgået noget af et åbent partnerskab over de sidste par år. OpenAIs modeller er bygget på Microsoft-hardware (inkl tusindvis af Nvidia GPU'er), og Microsoft udnytter virksomhedens teknologi på tværs af Bing, Microsoft Office og selve Windows. I begyndelsen af 2023 investerede Microsoft endda 10 milliarder dollars i OpenAI, hvilket var lige ved at købe virksomheden direkte.
Relaterede
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- ChatGPT-webstedets trafik er faldet for første gang
- De bedste AI-chatbots at prøve: ChatGPT, Bard og mere
På trods af dette hævder rapporten, at Microsoft-medarbejdere har problemer med begrænset adgang til OpenAIs modeller, og at de var bekymrede for, at ChatGPT skulle overskygge den AI-oversvømmede Bing Chat. For at gøre tingene værre rapporterer Wall Street Journal, at OpenAI og Microsoft begge sælger OpenAIs teknologi, hvilket fører til situationer, hvor leverandører har at gøre med kontakter hos begge virksomheder.
Anbefalede videoer
Det største problem, ifølge rapporten, er, at Microsoft og OpenAI forsøger at tjene penge med et lignende produkt. Med Microsofts opbakning, men ikke kontrollerende OpenAI, er ChatGPT-udvikleren fri til at indgå partnerskaber med andre virksomheder, hvoraf nogle direkte kan konkurrere med Microsofts produkter.
Baseret på hvad vi har set, holdt OpenAIs rapporterede advarsler vand. Kort efter udgivelsen af Bing Chat, Microsoft begrænsede antallet af svar brugere kunne modtage i en enkelt session. Og siden da har Microsoft langsomt ophævet begrænsningen som den GPT-4 model i Bing Chat er forfinet. Rapporter tyder på, at nogle Microsoft-medarbejdere ofte refererer til "Sydney", der laver sjov på de tidlige dage af Bing Chat (kodenavnet Sydney) og dets svar.
Redaktørens anbefalinger
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
- ChatGPTs Bing-browsing-funktion deaktiveret på grund af adgangsfejl i betalingsvæggen
- 81 % mener, at ChatGPT er en sikkerhedsrisiko, viser undersøgelsen
- Apples ChatGPT-rival skriver muligvis automatisk kode til dig
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.