Google lansert Bard, dens ChatGPT-rival, til tross for interne bekymringer om at det var en "patologisk løgner" og produserte "kremmende" resultater, har en ny rapport hevdet. Arbeider sier at disse bekymringene tilsynelatende ble ignorert i et hektisk forsøk på å ta igjen ChatGPT og avverge trusselen det kan utgjøre Googles søkevirksomhet.
Avsløringene kommer fra en Bloomberg rapport som tok et dypdykk inn i Google Bard og problemstillingene reist av ansatte som har jobbet med prosjektet. Det er en øyeåpnende beretning om måtene chatboten tilsynelatende har gått av sporet og bekymringene disse hendelsene har skapt blant bekymrede arbeidere.
Bloomberg siterer for eksempel en anonym ansatt som ba Bard om instruksjoner om hvordan man lander et fly, og som deretter ble forferdet over å se at Bards beskrivelse ville føre til en krasj. En annen arbeider sa at Bards dykketips "sannsynligvis ville resultere i alvorlig skade eller død."
I slekt
- ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
- Hva er en DAN-forespørsel for ChatGPT?
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
Disse problemene ble tilsynelatende tatt opp kort tid før Bard lanserte, ifølge, men Google presset på med live-datoen, slik var ønsket om å holde tritt med bane blased av ChatGPT. Men den har gjort det mens den ignorerer sine egne etiske forpliktelser, noe som ikke bare har resultert i farlige råd, men også potensiell spredning av feilinformasjon.
Anbefalte videoer
Hastende videre til lansering
I 2021 lovet Google å doble sitt team av ansatte som studerer de etiske konsekvensene av kunstig intelligens (AI) og investere mer i å finne potensielle skader. Likevel er dette teamet nå "manglende makt og demoralisert," hevder Bloomberg-rapporten. Enda verre, teammedlemmer har blitt fortalt "ikke å komme i veien eller prøve å drepe noen av de generative AI-verktøyene under utvikling", noe som setter spørsmålstegn ved Googles forpliktelse til AI-etikk.
Det ble sett i aksjon rett før Bard lanserte. I februar sendte en Google-arbeider melding til en intern gruppe for å si: «Bard er verre enn ubrukelig: vær så snill å ikke lansere», med mange andre ansatte som ropte inn for å være enig. Den neste måneden overstyrte Jen Gennai, Googles leder for AI-styring, en risikoevaluering som sa Bard kunne forårsake skade og var ikke klar for lansering, og presset videre med den første offentlige utgivelsen av chatbot.
Bloombergs rapport maler et bilde av et selskap som ikke stoler på etiske bekymringer som det mener kan komme i veien for lønnsomheten til egne produkter. For eksempel ba en arbeider om å jobbe med rettferdighet i maskinlæring, men ble gjentatte ganger motet, til det punktet at det påvirket ytelsesvurderingen deres. Ledere klaget over at etiske bekymringer hindret deres "virkelige arbeid," sa den ansatte.
Det er en bekymringsfull holdning, spesielt siden vi allerede har sett mange eksempler på Misbruk av AI chatbot som har produsert støtende, villedende eller direkte falsk informasjon. Hvis Bloomberg-rapporten er korrekt om Googles tilsynelatende fiendtlige tilnærming til etiske bekymringer, kan dette bare være begynnelsen når det gjelder problemer forårsaket av AI.
Redaktørenes anbefalinger
- Toppforfattere krever betaling fra AI-firmaer for å bruke arbeidet deres
- GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
- Wix bruker ChatGPT for å hjelpe deg raskt å bygge et helt nettsted
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- ChatGPT-nettstedstrafikken har falt for første gang
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.