Google je začel Bard, njegov tekmec ChatGPT, kljub notranjim pomislekom, da je bil "patološki lažnivec" in dal "jezive vredne" rezultate, trdi novo poročilo. Delavec pravi, da so bile te skrbi očitno prezrte v mrzličnem poskusu dohitite ChatGPT in prepreči grožnjo, ki bi jo lahko predstavljal Googlovo iskalno podjetje.
Razkritja prihajajo iz a Bloombergovo poročilo ki se je globoko poglobil v Google Bard in vprašanja, ki so jih izpostavili zaposleni, ki so delali na projektu. To je osupljiva pripoved o načinih, kako je klepetalni robot očitno zašel s tira, in pomislekih, ki so jih ti incidenti vzbudili med zaskrbljenimi delavci.
Bloomberg na primer navaja anonimnega uslužbenca, ki je Barda prosil za navodila, kako pristati z letalom, nato pa je bil zgrožen, ko je videl, da bi Bardov opis povzročil strmoglavljenje. Drugi delavec je dejal, da bi Bardovi nasveti za potapljanje "verjetno povzročili resne poškodbe ali smrt."
Povezano
- ChatGPT: najnovejše novice, polemike in nasveti, ki jih morate vedeti
- Kaj je DAN poziv za ChatGPT?
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
Glede na to so bila ta vprašanja očitno izpostavljena tik pred lansiranjem Barda, vendar je Google nadaljeval z datumom objave, taka je bila njegova želja, da ostane v koraku z pot, ki jo je utrl ChatGPT. Vendar je to storil, medtem ko ni upošteval lastnih etičnih zavez, kar je povzročilo ne le nevarne nasvete, ampak tudi potencialno širjenje napačnih informacij.
Priporočeni videoposnetki
Hitenje naprej za izstrelitev
Leta 2021 se je Google zavezal, da bo podvojil svojo ekipo zaposlenih, ki preučujejo etične posledice umetne inteligence (AI), in več vlagal v ugotavljanje morebitne škode. Vendar je ta ekipa zdaj "razvrednotena in demoralizirana", trdi Bloombergovo poročilo. Še huje, članom ekipe je bilo rečeno, "naj se ne vtikajo v to ali naj poskušajo uničiti katero koli od generativnih orodij umetne inteligence v razvoju," kar postavlja pod vprašaj Googlovo zavezanost etiki umetne inteligence.
To je bilo videti v akciji tik pred lansiranjem Barda. Februarja je Googlov delavec interni skupini poslal sporočilo: »Bard je še hujši kot neuporaben: prosim, ne lansirajte,« s številnimi drugimi zaposlenimi, ki so se strinjali. Naslednji mesec je Jen Gennai, Googlova vodja upravljanja umetne inteligence, razveljavila oceno tveganja, ki je dejala Bard bi lahko povzročil škodo in ni bil pripravljen za lansiranje, zato je nadaljeval s prvo javno izdajo chatbot.
Bloombergovo poročilo prikazuje sliko podjetja, ki nezaupljivo gleda na etične pomisleke, za katere meni, da bi lahko ovirali dobičkonosnost njegovih izdelkov. Na primer, en delavec je prosil, naj dela na pravičnosti pri strojnem učenju, vendar so ga večkrat odvrnili, do te mere, da je to vplivalo na njihov pregled uspešnosti. Vodje so se pritoževali, da etični pomisleki ovirajo njihovo "resnično delo", je izjavil zaposleni.
To je zaskrbljujoče stališče, zlasti ker smo videli že veliko primerov Nepravilno ravnanje klepetalnega robota AI ki je ustvaril žaljive, zavajajoče ali odkrito napačne informacije. Če je Bloombergovo poročilo pravilno glede Googlovega na videz sovražnega pristopa do etičnih vprašanj, bi to lahko bil šele začetek, ko gre za težave, ki jih povzroča umetna inteligenca.
Priporočila urednikov
- Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
- GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
- Wix uporablja ChatGPT, da vam pomaga hitro zgraditi celotno spletno mesto
- Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
- Obisk spletnega mesta ChatGPT je prvič upadel
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.