Alphabet har bedt sine ansatte om ikke å legge inn konfidensiell informasjon i Bard, den generative AI-chatboten opprettet og drevet av Google, som Alphabet eier.
Selskapets advarsel strekker seg også til andre chatbots, for eksempel Microsoft-støttet ChatGPT fra OpenAI, Det melder Reuters på torsdag.
Anbefalte videoer
De AI-drevne chatbotene har skapt stor interesse de siste månedene på grunn av deres imponerende evne til å snakke på en menneskelignende måte, skrive essays og rapporter, og til og med lykkes i akademiske tester.
I slekt
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
- Elon Musks nye AI-selskap har som mål å "forstå universet"
- AI-gjennombrudd kan komme via hjernen til bier, sier forskere
Men Alphabet er bekymret for at arbeiderne utilsiktet lekker intern data via verktøyene.
I det pågående arbeidet med å avgrense og forbedre den avanserte AI-teknologien, kan menneskelige anmeldere lese samtalene brukere har med chatbotene, utgjør en risiko for personvernet og også den potensielle eksponeringen av forretningshemmeligheter, hvorav Alphabet ser ut til å være spesielt bekymret Om.
I tillegg er chatbotene delvis trent ved hjelp av brukernes tekstutveksling, så med visse spørsmål kan verktøyet kan potensielt gjenta konfidensiell informasjon som den mottar i disse samtalene til medlemmer av offentlig.
Som ChatGPT, Bard er nå fritt tilgjengelig for alle å prøve. På nettsiden sin advarer den brukere: "Vennligst ikke inkluder informasjon som kan brukes til å identifisere deg eller andre i Bard-samtalene dine."
Den legger til at Google samler inn "Bard-samtaler, relatert informasjon om produktbruk, informasjon om din plassering og tilbakemeldingen din», og bruker dataene til å forbedre Googles produkter og tjenester som inkluderer Bard.
Google sier at den lagrer Bard-aktivitet i opptil 18 måneder, selv om en bruker kan endre dette til tre eller 36 måneder i Google-kontoen sin.
Den legger til at som et personverntiltak blir Bard-samtaler koblet fra en Google-konto før en menneskelig anmelder ser dem.
Reuters sa at selv om Alphabets advarsel har vært på plass en stund, utvidet den nylig den, og ba sine arbeidere om å unngå å bruke presis datakode generert av chatbots. Selskapet fortalte nyhetsbyrået at Bard noen ganger kan komme med "uønskede kodeforslag", selv om den nåværende iterasjonen av verktøyet fortsatt anses å være et levedyktig programmeringshjelpemiddel.
Alphabet er ikke det eneste selskapet som advarer sine ansatte om personvern- og sikkerhetsrisikoer knyttet til bruk av chatbots. Samsung ga nylig ut en lignende instruksjoner til sine arbeidere etter at en rekke av dem matet sensitive halvlederrelaterte data inn i ChatGPT, og blant andre Apple og Amazon har angivelig også vedtatt en lignende intern policy.
Redaktørenes anbefalinger
- De beste AI-videoredigeringsverktøyene
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- ChatGPT-nettstedstrafikken har falt for første gang
- OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
- Alt internett tilhører nå Googles AI
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.