Alphabet on kehottanut työntekijöitään olemaan syöttämättä luottamuksellisia tietoja Bardiin, Googlen luomaan ja ylläpitämään generatiiviseen AI-chatbotiin, jonka Alphabet omistaa.
Yhtiön varoitus koskee myös muita chatbotteja, kuten Microsoftin tukemaa OpenAI: n ChatGPT: tä, Reuters raportoi torstaina.
Suositellut videot
Tekoälykäyttöiset chatbotit ovat herättäneet valtavaa kiinnostusta viime kuukausina, koska ne pystyvät keskustelemaan ihmismäisellä tavalla, kirjoittamaan esseitä ja raportteja ja jopa menestymään akateemisissa testeissä.
Liittyvät
- Google Bard voi nyt puhua, mutta voiko se tukahduttaa ChatGPT: n?
- Elon Muskin uuden tekoälyyrityksen tavoitteena on "ymmärtää maailmankaikkeus"
- Tekoälyn läpimurto voi tulla mehiläisten aivojen kautta, tutkijat sanovat
Mutta Alphabet on huolissaan siitä, että sen työntekijät vuotavat vahingossa sisäisiä tietoja työkalujen kautta.
Jatkuvassa työssä edistyneen tekoälytekniikan hiomiseksi ja parantamiseksi tarkastajat voivat lukea keskusteluja, joita käyttäjät käyvät chatbottien kanssa, vaarantaa yksityisyyden ja myös mahdollisen liikesalaisuuksien paljastamisen, joista jälkimmäinen Alphabet näyttää olevan erityisen huolissaan noin.
Lisäksi chatbotit on osittain koulutettu käyttäjien tekstinvaihdoilla, joten tietyillä kehotteilla työkalu saattaa mahdollisesti toistaa luottamuksellisia tietoja, jotka se saa näissä keskusteluissa jäsenille julkinen.
Kuten ChatGPT, Bard on nyt vapaasti saatavilla kenenkään kokeiltavaksi. Verkkosivullaan se varoittaa käyttäjiä: "Älä sisällytä tietoja, joiden avulla voit tunnistaa sinut tai muut Bard-keskusteluissasi."
Se lisää, että Google kerää "Bard-keskusteluja, niihin liittyviä tuotteiden käyttötietoja, tietoja sinusta sijainti ja palautteesi" ja käyttää tietoja parantaakseen Googlen tuotteita ja palveluita, jotka sisältävät Bard.
Google sanoo tallentavansa Bardin toimintaa jopa 18 kuukaudeksi, mutta käyttäjä voi muuttaa sen kolmeksi tai 36 kuukaudeksi Google-tilillään.
Se lisää, että tietosuojasyistä Bardin keskustelut katkaistaan Google-tilistä ennen kuin arvioija näkee ne.
Reuters sanoi, että vaikka Alphabetin varoitus on ollut voimassa jonkin aikaa, se laajensi sitä äskettäin ja kehotti työntekijöitään välttämään chatbottien luoman tarkan tietokonekoodin käyttöä. Yhtiö kertoi uutistoimistolle, että Bard voi joskus tehdä "ei-toivottuja koodiehdotuksia", vaikka työkalun nykyistä iteraatiota pidetään edelleen käyttökelpoisena ohjelmointiapuna.
Alphabet ei ole ainoa yritys, joka varoittaa työntekijöitään chatbottien käyttöön liittyvistä tietosuoja- ja turvallisuusriskeistä. Samsung julkaisi äskettäin a samanlaisia ohjeita työntekijöilleen sen jälkeen, kun useat heistä syöttivät arkaluontoisia puolijohteisiin liittyviä tietoja ChatGPT: hen, ja muun muassa Apple ja Amazon ovat kuulemma myös säätäneet vastaavan sisäisen politiikan.
Toimittajien suositukset
- Parhaat AI-videonmuokkaustyökalut
- ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista
- ChatGPT-verkkosivustojen liikenne on laskenut ensimmäistä kertaa
- OpenAI rakentaa uutta tiimiä estääkseen superälykkään tekoälyn huijauksen
- Kaikki internet kuuluu nyt Googlen tekoälylle
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.