Alphabet har bedt sine medarbejdere om ikke at indtaste fortrolige oplysninger i Bard, den generative AI-chatbot skabt og drevet af Google, som Alphabet ejer.
Virksomhedens advarsel strækker sig også til andre chatbots, såsom Microsoft-støttet ChatGPT fra OpenAI, Det rapporterede Reuters på torsdag.
Anbefalede videoer
De AI-drevne chatbots har skabt enorm interesse i de seneste måneder på grund af deres imponerende evne til at konversere på en menneskelignende måde, skrive essays og rapporter og endda få succes med akademiske tests.
Relaterede
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- Elon Musks nye AI-virksomhed har til formål at 'forstå universet'
- AI-gennembrud kan komme via biernes hjerner, siger videnskabsmænd
Men Alphabet har bekymringer om, at dets arbejdere utilsigtet lækker interne data via værktøjerne.
I det igangværende arbejde med at forfine og forbedre den avancerede AI-teknologi kan menneskelige anmeldere læse de samtaler, som brugerne har med chatbots, udgør en risiko for privatlivets fred og også den potentielle afsløring af forretningshemmeligheder, hvoraf Alphabet synes at være særligt bekymret om.
Derudover trænes chatbotterne delvist ved hjælp af brugernes tekstudveksling, så med visse prompter kan værktøjet kunne potentielt gentage fortrolige oplysninger, som den modtager i disse samtaler til medlemmer af offentlig.
Synes godt om ChatGPT, Bard er nu frit tilgængelig for enhver at prøve. På sin webside advarer den brugere: "Inkluder venligst ikke oplysninger, der kan bruges til at identificere dig eller andre i dine Bard-samtaler."
Det tilføjer, at Google indsamler "Bard-samtaler, relaterede produktbrugsoplysninger, info om din placering og din feedback", og bruger dataene til at forbedre Googles produkter og tjenester, der omfatter Bard.
Google siger, at det gemmer Bard-aktivitet i op til 18 måneder, selvom en bruger kan ændre dette til tre eller 36 måneder på deres Google-konto.
Det tilføjer, at som en privatlivsforanstaltning afbrydes Bard-samtaler fra en Google-konto, før en menneskelig anmelder ser dem.
Reuters sagde, at selvom Alphabets advarsel har været på plads i et stykke tid, har den for nylig udvidet den og beder sine medarbejdere om at undgå at bruge præcis computerkode genereret af chatbots. Virksomheden fortalte nyhedsmediet, at Bard nogle gange kan komme med "uønskede kodeforslag", selvom den nuværende iteration af værktøjet stadig anses for at være en levedygtig programmeringshjælp.
Alphabet er ikke den eneste virksomhed, der advarer sine medarbejdere om de privatlivs- og sikkerhedsrisici, der er forbundet med at bruge chatbots. Samsung udsendte for nylig en lignende instruktion til sine medarbejdere efter at en række af dem indførte følsomme halvleder-relaterede data i ChatGPT, og blandt andre Apple og Amazon har angiveligt også vedtaget en lignende intern politik.
Redaktørens anbefalinger
- De bedste AI-videoredigeringsværktøjer
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- ChatGPT-webstedets trafik er faldet for første gang
- OpenAI bygger nyt hold for at forhindre, at superintelligent kunstig intelligens bliver useriøs
- Alt internettet tilhører nu Googles AI
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.