Alphabet ir teicis saviem darbiniekiem neievadīt konfidenciālu informāciju Bard, ģeneratīvajā AI tērzēšanas robotā, ko izveidojis un pārvalda Google un kas pieder Alphabet.
Uzņēmuma brīdinājums attiecas arī uz citiem tērzēšanas robotiem, piemēram, Microsoft atbalstīto ChatGPT no OpenAI, Reuters ziņoja ceturtdien.
Ieteiktie videoklipi
Ar AI darbināmie tērzēšanas roboti pēdējos mēnešos ir izraisījuši milzīgu interesi, pateicoties to iespaidīgajai spējai sarunāties cilvēkiem līdzīgā veidā, rakstīt esejas un ziņojumus un pat gūt panākumus akadēmiskajos testos.
Saistīts
- Google Bard tagad var runāt, bet vai tas var noslāpēt ChatGPT?
- Elona Muska jaunā AI uzņēmuma mērķis ir "saprast Visumu"
- Zinātnieki saka, ka mākslīgā intelekta sasniegumi varētu notikt caur bišu smadzenēm
Bet Alphabet ir bažas par to, ka tā darbinieki nejauši nopludinās iekšējos datus, izmantojot rīkus.
Turpinot darbu, lai pilnveidotu un uzlabotu progresīvo AI tehnoloģiju, recenzenti var lasīt lietotāju sarunas ar tērzēšanas robotiem, apdraud personas privātumu, kā arī potenciālu komercnoslēpumu atklāšanu, no kuriem Alphabet šķiet īpaši norūpējies par.
Turklāt tērzēšanas roboti ir daļēji apmācīti, izmantojot lietotāju teksta apmaiņu, tāpēc ar noteiktiem norādījumiem rīks varētu atkārtot konfidenciālu informāciju, ko tā saņem šajās sarunās ar grupas dalībniekiem publiski.
Patīk ChatGPT, Bards tagad ir brīvi pieejams lai kāds varētu pamēģināt. Savā tīmekļa lapā tas brīdina lietotājus: "Lūdzu, neiekļaujiet informāciju, ko var izmantot, lai identificētu jūs vai citas personas jūsu Barda sarunās."
Tajā piebilsts, ka Google apkopo “Barda sarunas, saistīto produktu lietošanas informāciju, informāciju par jūsu atrašanās vietu un jūsu atsauksmes”, un izmanto datus, lai uzlabotu Google produktus un pakalpojumus, kas ietver Bards.
Google saka, ka tā saglabā Barda darbības līdz 18 mēnešiem, lai gan lietotājs savā Google kontā var to mainīt uz trim vai 36 mēnešiem.
Tajā piebilsts, ka privātuma nolūkos Barda sarunas tiek atvienotas no Google konta, pirms tās redz cilvēks, kurš veic pārskatīšanu.
Reuters sacīja, ka, lai gan Alphabet brīdinājums ir spēkā kādu laiku, tas nesen to paplašināja, liekot saviem darbiniekiem izvairīties no precīza tērzēšanas robotu ģenerēta datora koda. Uzņēmums pastāstīja ziņu izlaidumam, ka Bards dažreiz var sniegt "nevēlamus koda ieteikumus", lai gan pašreizējā rīka iterācija joprojām tiek uzskatīta par dzīvotspējīgu programmēšanas palīglīdzekli.
Alphabet nav vienīgais uzņēmums, kas brīdina savus darbiniekus par privātuma un drošības riskiem, kas saistīti ar tērzēšanas robotu izmantošanu. Samsung nesen izdeva a līdzīgas instrukcijas saviem darbiniekiem pēc tam, kad vairāki no viņiem ChatGPT ievadīja sensitīvus ar pusvadītāju saistītus datus, un Apple un Amazon, cita starpā, arī ir ieviesuši līdzīgu iekšējo politiku.
Redaktoru ieteikumi
- Labākie AI video rediģēšanas rīki
- ChatGPT veidotājs OpenAI saskaras ar FTC izmeklēšanu par patērētāju aizsardzības likumiem
- ChatGPT vietnes trafika ir samazinājusies pirmo reizi
- OpenAI veido jaunu komandu, lai apturētu superinteliģentā mākslīgā intelekta ļaunprātīgu izmantošanu
- Viss internets tagad pieder Google AI
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.