Google lanserades Bard, dess konkurrent i ChatGPT, trots interna farhågor om att det var en "patologisk lögnare" och gav "krypvärda" resultat, har en ny rapport hävdat. Arbetare säger att dessa bekymmer uppenbarligen ignorerades i ett frenetiskt försök att komma ikapp med ChatGPT och avvärja hotet det kan utgöra för Googles sökverksamhet.
Uppenbarelserna kommer från en Bloomberg rapporterar som tog en djupdykning i Google Bard och de frågor som tagits upp av anställda som har arbetat med projektet. Det är en ögonöppnande redogörelse för hur chatboten uppenbarligen har gått av stapeln och de farhågor som dessa incidenter har väckt bland berörda arbetare.
![ChatGPT kontra Google på smartphones.](/f/63678f9bf4cbb9ff8e423080a77d0512.jpg)
Till exempel citerar Bloomberg en anonym anställd som bad Bard om instruktioner om hur man landar ett plan, och sedan blev förskräckt över att se att Bards beskrivning skulle leda till en krasch. En annan arbetare sa att Bards dyktips "sannolikt skulle resultera i allvarlig skada eller dödsfall."
Relaterad
- ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
- Vad är en DAN-prompt för ChatGPT?
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
Dessa frågor togs uppenbarligen upp strax innan Bard lanserades, men ändå fortsatte Google vidare med startdatumet, så var dess önskan att hålla jämna steg med sökvägen öppnas av ChatGPT. Men det har gjort det samtidigt som de struntar i sina egna etiska åtaganden, vilket inte bara har resulterat i farliga råd, utan även potentiell spridning av felaktig information.
Rekommenderade videor
Rusar framåt för att lansera
![Google Bard AI chatbot i en webbläsare som visas på skärmen på en Android-smarttelefon.](/f/1ea3187b8f3f8de2c695b7699b1a53b3.jpg)
2021 lovade Google att fördubbla sitt team av anställda som studerar de etiska konsekvenserna av artificiell intelligens (AI) och investera mer i att fastställa potentiella skador. Ändå är det laget nu "bemättnad och demoraliserad", hävdar Bloomberg-rapporten. Än värre, teammedlemmar har blivit tillsagda att "inte stå i vägen eller försöka döda något av de generativa AI-verktygen under utveckling", vilket ifrågasätter Googles engagemang för AI-etik.
Det sågs i aktion precis innan Bard lanserade. I februari skickade en Google-arbetare ett meddelande till en intern grupp för att säga: "Bard är värre än värdelös: snälla starta inte," med massor av andra anställda som hörde av sig för att hålla med. Nästa månad åsidosatte Jen Gennai, Googles ledare för AI-styrning, en riskbedömning som sa Bard kunde orsaka skada och var inte redo för lansering, och gick vidare med den första offentliga versionen av chatbot.
Bloombergs rapport målar upp en bild av ett företag som är misstroende mot etiska bekymmer som det anser kan komma i vägen för deras egna produkters lönsamhet. Till exempel bad en arbetare att få arbeta med rättvisa i maskininlärning, men blev upprepade gånger avskräckt, till den grad att det påverkade deras resultatgranskning. Chefer klagade över att etiska problem hindrade deras "riktiga arbete", sa den anställde.
Det är en oroande hållning, särskilt eftersom vi redan har sett många exempel på Missuppförande av AI-chatbot som har producerat stötande, vilseledande eller rent av falsk information. Om Bloomberg-rapporten är korrekt om Googles till synes fientliga inställning till etiska problem, kan detta bara vara början när det kommer till problem orsakade av AI.
Redaktörens rekommendationer
- Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
- GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
- Wix använder ChatGPT för att hjälpa dig att snabbt bygga en hel webbplats
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
- ChatGPTs webbplatstrafik har minskat för första gången
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.