Google palaists Bards, tā ChatGPT sāncensis, neskatoties uz iekšējām bažām, ka tas bija "patoloģisks melis" un radīja "satricināmus" rezultātus, teikts jaunā ziņojumā. Strādnieks saka, ka šīs bažas tika ignorētas izmisīgā mēģinājumā sazinieties ar ChatGPT un izvairieties no draudiem, ko tas varētu radīt Google meklēšanas bizness.
Atklāsmes nāk no a Bloomberg ziņojums kas lika dziļi ienirt Google Bard un problēmas, ko izvirzījuši darbinieki, kuri strādājuši pie projekta. Tas ir acis atverošs pārskats par veidiem, kā tērzēšanas robots acīmredzot ir nogājis no sliedēm, un bažām, ko šie incidenti ir radījuši norūpējušos darbinieku vidū.
Piemēram, Bloomberg citē anonīmu darbinieku, kurš lūdza Bārdam norādījumus par to, kā nosēsties lidmašīnā, bet pēc tam bija šausmās, redzot, ka Bārda apraksts novedīs pie avārijas. Kāds cits darbinieks sacīja, ka Bārda niršanas ar akvalangu padomi "visticamāk, izraisīs nopietnus savainojumus vai nāvi".
Saistīts
- ChatGPT: jaunākās ziņas, strīdi un padomi, kas jums jāzina
- Kas ir DAN uzvedne ChatGPT?
- Google Bard tagad var runāt, bet vai tas var noslāpēt ChatGPT?
Acīmredzot šīs problēmas tika izvirzītas neilgi pirms Bard darbības uzsākšanas, tomēr Google virzījās uz priekšu ar sākuma datumu, tā bija tā vēlme iet kopsolī ar ceļš, ko aizdedzināja ChatGPT. Taču tas ir darījis, neievērojot savas ētiskās saistības, kā rezultātā tiek sniegti ne tikai bīstami padomi, bet arī iespējama dezinformācijas izplatīšanās.
Ieteiktie videoklipi
Steidzoties uz priekšu, lai palaistu
2021. gadā Google apņēmās dubultot savu darbinieku komandu, kas pēta mākslīgā intelekta (AI) ētiskās sekas, un ieguldīt lielākus līdzekļus iespējamā kaitējuma noteikšanā. Tomēr šī komanda tagad ir “atņemta un demoralizēta”, apgalvo Bloomberg ziņojums. Vēl ļaunāk, komandas locekļiem ir teikts, ka viņi "netraucē vai nemēģināt nogalināt kādu no izstrādes procesā esošajiem ģeneratīvajiem AI rīkiem", tādējādi apšaubot Google apņemšanos ievērot AI ētiku.
Tas bija redzams darbībā tieši pirms Bard palaišanas. Februārī Google darbinieks nosūtīja iekšējai grupai ziņojumu, sakot: "Bards ir sliktāks par nederīgu: lūdzu, nepalaidiet", un daudzi citi darbinieki tam piekrita. Nākamajā mēnesī Džena Dženaja, Google AI pārvaldības vadītājs, atcēla riska novērtējumu, kurā teikts Bards varēja nodarīt kaitējumu un nebija gatavs palaišanai, virzoties uz priekšu ar pirmo publisko izlaišanu tērzēšanas robots.
Bloomberg ziņojumā ir attēlots uzņēmums, kurš neuzticas ētiskām bažām, kuras, pēc tā domām, varētu traucēt tā produktu rentabilitātei. Piemēram, viens darbinieks lūdza strādāt pie godīguma mašīnmācībā, taču tika atkārtoti atturēts, līdz tas ietekmēja viņu veiktspējas pārskatu. Vadītāji sūdzējās, ka ētiskas bažas traucē viņu "reālajam darbam", norādīja darbinieks.
Tā ir satraucoša nostāja, jo īpaši tāpēc, ka mēs jau esam redzējuši daudz piemēru AI tērzēšanas robota nepareiza rīcība kas ir sniedzis aizskarošu, maldinošu vai klaji nepatiesu informāciju. Ja Bloomberg ziņojums ir pareizs par Google šķietami naidīgo pieeju ētikas problēmām, tas varētu būt tikai sākums, kad runa ir par problēmām, ko izraisa AI.
Redaktoru ieteikumi
- Labākie autori pieprasa samaksu no AI firmām par viņu darba izmantošanu
- GPT-4: kā izmantot AI tērzēšanas robotu, kas padara ChatGPT kaunā
- Wix izmanto ChatGPT, lai palīdzētu ātri izveidot visu vietni
- ChatGPT veidotājs OpenAI saskaras ar FTC izmeklēšanu par patērētāju aizsardzības likumiem
- ChatGPT vietnes trafika ir samazinājusies pirmo reizi
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.