Alphabet je rekao svojim zaposlenicima da ne unose povjerljive informacije u Bard, generativni AI chatbot koji je kreirao i kojim upravlja Google, a koji je u vlasništvu Alphabeta.
Upozorenje tvrtke odnosi se i na druge chatbotove, kao što je ChatGPT koji podržava Microsoft iz OpenAI-ja, Izvijestio je Reuters u četvrtak.
Preporučeni videozapisi
Chatbotovi pokretani umjetnom inteligencijom izazvali su veliki interes posljednjih mjeseci zbog svoje impresivne sposobnosti da razgovaraju na ljudski način, pišu eseje i izvješća, pa čak i polažu akademske testove.
Povezano
- Google Bard sada može govoriti, ali može li ugušiti ChatGPT?
- Nova AI tvrtka Elona Muska ima za cilj 'razumjeti svemir'
- Znanstvenici kažu da bi otkrića umjetne inteligencije mogla doći preko mozgova pčela
Ali Alphabet je zabrinut zbog toga što njegovi radnici nenamjerno cure interne podatke putem alata.
U tekućem radu na usavršavanju i poboljšanju napredne AI tehnologije, ljudski recenzenti mogu čitati razgovore koje korisnici vode s chatbotovima, predstavljanje rizika za osobnu privatnost i potencijalno izlaganje poslovnih tajni, za što je Alphabet posebno zabrinut oko.
Osim toga, chatbotovi su djelomično obučeni korištenjem razmjene tekstualnih poruka korisnika, tako da uz određene upite alat mogao potencijalno ponoviti povjerljive informacije koje dobije u tim razgovorima članovima javnost.
Kao ChatGPT, Bard je sada slobodno dostupni za bilo koga da proba. Na svojoj web stranici upozorava korisnike: "Molimo vas da u svoje Bard razgovore ne uključujete podatke koji se mogu koristiti za identifikaciju vas ili drugih."
Dodaje se da Google prikuplja "Razgovore s bardom, povezane informacije o korištenju proizvoda, informacije o vašem lokaciju i vaše povratne informacije” i upotrebljava podatke za poboljšanje Googleovih proizvoda i usluga koje uključuju Bard.
Google kaže da pohranjuje Bard aktivnosti do 18 mjeseci, iako korisnik to može promijeniti na tri ili 36 mjeseci na svom Google računu.
Dodaje se da se zbog zaštite privatnosti Bard razgovori odvajaju od Google računa prije nego što ih pregledavatelj vidi.
Reuters je rekao da, iako Alphabetovo upozorenje postoji već neko vrijeme, nedavno ga je proširio, govoreći svojim radnicima da izbjegavaju korištenje preciznog računalnog koda koji generiraju chatbotovi. Tvrtka je novinskoj kući rekla da Bard ponekad može dati "neželjene prijedloge koda", iako se trenutna iteracija alata još uvijek smatra održivom pomoći u programiranju.
Alphabet nije jedina tvrtka koja upozorava svoje zaposlenike na rizike privatnosti i sigurnosti povezane s korištenjem chatbota. Samsung je nedavno izdao a slične upute svojim radnicima nakon što su neki od njih unijeli osjetljive podatke vezane uz poluvodiče u ChatGPT, a Apple i Amazon, među ostalima, navodno su također donijeli sličnu internu politiku.
Preporuke urednika
- Najbolji AI alati za uređivanje videa
- Proizvođač ChatGPT-a OpenAI suočava se s istragom FTC-a zbog zakona o zaštiti potrošača
- Promet web stranice ChatGPT pao je po prvi put
- OpenAI gradi novi tim koji će spriječiti da superinteligentna umjetna inteligencija postane skitnica
- Cijeli internet sada pripada Googleovoj umjetnoj inteligenciji
Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.