Alphabet har sagt till sina anställda att inte skriva in konfidentiell information i Bard, den generativa AI-chatbot som skapats och drivs av Google, som Alphabet äger.
Företagets varning sträcker sig även till andra chatbots, som Microsoft-stödda ChatGPT från OpenAI, Det rapporterade Reuters på torsdag.
Rekommenderade videor
De AI-drivna chatbotarna har genererat ett enormt intresse de senaste månaderna på grund av deras imponerande förmåga att konversera på ett mänskligt sätt, skriva uppsatser och rapporter och till och med lyckas i akademiska tester.
Relaterad
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
- Elon Musks nya AI-företag syftar till att "förstå universum"
- AI-genombrott kan komma via binas hjärnor, säger forskare
Men Alphabet har oro för att dess arbetare oavsiktligt läcker interna data via verktygen.
I det pågående arbetet med att förfina och förbättra den avancerade AI-tekniken kan mänskliga granskare läsa de konversationer som användare har med chatbotarna, utgör en risk för den personliga integriteten och även den potentiella exponeringen av affärshemligheter, av vilka Alphabet verkar vara särskilt oroad handla om.
Dessutom tränas chatbotarna delvis med hjälp av användarnas textväxling, så med vissa uppmaningar kan verktyget skulle potentiellt kunna upprepa konfidentiell information som den får i dessa konversationer till medlemmar av offentlig.
Tycka om ChatGPT, Bard är nu fritt tillgänglig för vem som helst att prova. På sin webbsida varnar den användare: "Inkludera inte information som kan användas för att identifiera dig eller andra i dina Bard-konversationer."
Den tillägger att Google samlar in "Bard-konversationer, relaterad produktanvändningsinformation, information om din plats och din feedback” och använder data för att förbättra Googles produkter och tjänster som inkluderar Bard.
Google säger att det lagrar Bard-aktivitet i upp till 18 månader, även om en användare kan ändra detta till tre eller 36 månader i sitt Google-konto.
Den tillägger att som en integritetsåtgärd kopplas Bard-konversationer bort från ett Google-konto innan en mänsklig granskare ser dem.
Reuters sa att även om Alphabets varning har funnits ett tag, utökade den nyligen den och sa till sina anställda att undvika att använda exakt datorkod som genereras av chatbots. Företaget berättade för nyhetsbyrån att Bard ibland kan komma med "oönskade kodförslag", även om den nuvarande iterationen av verktyget fortfarande anses vara ett hållbart programmeringshjälpmedel.
Alphabet är inte det enda företaget som varnar sina anställda om integritets- och säkerhetsrisker kopplade till att använda chatbots. Samsung utfärdade nyligen en liknande instruktioner till sina arbetare efter att ett antal av dem matat in känsliga halvledarrelaterad data till ChatGPT, och bland annat Apple och Amazon har enligt uppgift också antagit en liknande intern policy.
Redaktörens rekommendationer
- De bästa AI-videoredigeringsverktygen
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
- ChatGPTs webbplatstrafik har minskat för första gången
- OpenAI bygger ett nytt team för att förhindra att superintelligent AI blir oseriöst
- Allt internet tillhör nu Googles AI
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.