Google ber personalet være på vakt mot AI-chatbots

Alphabet har bedt sine ansatte om ikke å legge inn konfidensiell informasjon i Bard, den generative AI-chatboten opprettet og drevet av Google, som Alphabet eier.

Selskapets advarsel strekker seg også til andre chatbots, for eksempel Microsoft-støttet ChatGPT fra OpenAI, Det melder Reuters på torsdag.

Anbefalte videoer

De AI-drevne chatbotene har skapt stor interesse de siste månedene på grunn av deres imponerende evne til å snakke på en menneskelignende måte, skrive essays og rapporter, og til og med lykkes i akademiske tester.

I slekt

  • Google Bard kan nå snakke, men kan det overdøve ChatGPT?
  • Elon Musks nye AI-selskap har som mål å "forstå universet"
  • AI-gjennombrudd kan komme via hjernen til bier, sier forskere

Men Alphabet er bekymret for at arbeiderne utilsiktet lekker intern data via verktøyene.

I det pågående arbeidet med å avgrense og forbedre den avanserte AI-teknologien, kan menneskelige anmeldere lese samtalene brukere har med chatbotene, utgjør en risiko for personvernet og også den potensielle eksponeringen av forretningshemmeligheter, hvorav Alphabet ser ut til å være spesielt bekymret Om.

I tillegg er chatbotene delvis trent ved hjelp av brukernes tekstutveksling, så med visse spørsmål kan verktøyet kan potensielt gjenta konfidensiell informasjon som den mottar i disse samtalene til medlemmer av offentlig.

Som ChatGPT, Bard er nå fritt tilgjengelig for alle å prøve. På nettsiden sin advarer den brukere: "Vennligst ikke inkluder informasjon som kan brukes til å identifisere deg eller andre i Bard-samtalene dine."

Den legger til at Google samler inn "Bard-samtaler, relatert informasjon om produktbruk, informasjon om din plassering og tilbakemeldingen din», og bruker dataene til å forbedre Googles produkter og tjenester som inkluderer Bard.

Google sier at den lagrer Bard-aktivitet i opptil 18 måneder, selv om en bruker kan endre dette til tre eller 36 måneder i Google-kontoen sin.

Den legger til at som et personverntiltak blir Bard-samtaler koblet fra en Google-konto før en menneskelig anmelder ser dem.

Reuters sa at selv om Alphabets advarsel har vært på plass en stund, utvidet den nylig den, og ba sine arbeidere om å unngå å bruke presis datakode generert av chatbots. Selskapet fortalte nyhetsbyrået at Bard noen ganger kan komme med "uønskede kodeforslag", selv om den nåværende iterasjonen av verktøyet fortsatt anses å være et levedyktig programmeringshjelpemiddel.

Alphabet er ikke det eneste selskapet som advarer sine ansatte om personvern- og sikkerhetsrisikoer knyttet til bruk av chatbots. Samsung ga nylig ut en lignende instruksjoner til sine arbeidere etter at en rekke av dem matet sensitive halvlederrelaterte data inn i ChatGPT, og blant andre Apple og Amazon har angivelig også vedtatt en lignende intern policy.

Redaktørenes anbefalinger

  • De beste AI-videoredigeringsverktøyene
  • ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
  • ChatGPT-nettstedstrafikken har falt for første gang
  • OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
  • Alt internett tilhører nå Googles AI

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.