Google zegt tegen het personeel dat ze op hun hoede moeten zijn voor AI-chatbots

Alphabet heeft zijn werknemers verteld geen vertrouwelijke informatie in te voeren in Bard, de generatieve AI-chatbot gemaakt en beheerd door Google, waarvan Alphabet eigenaar is.

De waarschuwing van het bedrijf strekt zich ook uit tot andere chatbots, zoals de door Microsoft ondersteunde ChatGPT van OpenAI, Dat meldde Reuters op donderdag.

Aanbevolen video's

De door AI aangedreven chatbots hebben de afgelopen maanden enorme belangstelling gewekt vanwege hun indrukwekkende vermogen om op een menselijke manier te converseren, essays en rapporten te schrijven en zelfs te slagen in academische tests.

Verwant

  • Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
  • Het nieuwe AI-bedrijf van Elon Musk wil 'het universum begrijpen'
  • AI-doorbraken zouden via de hersenen van bijen kunnen komen, zeggen wetenschappers

Maar Alphabet maakt zich zorgen over het feit dat zijn werknemers per ongeluk interne gegevens lekken via de tools.

In lopende werkzaamheden om de geavanceerde AI-technologie te verfijnen en te verbeteren, kunnen menselijke recensenten de gesprekken lezen die gebruikers hebben met de chatbots, die een risico vormen voor de persoonlijke levenssfeer en ook voor de mogelijke openbaarmaking van handelsgeheimen, waar Alphabet bijzonder bezorgd over lijkt te zijn over.

Daarnaast worden de chatbots deels getraind met behulp van tekstuitwisselingen van gebruikers, dus met bepaalde prompts, de tool zou mogelijk vertrouwelijke informatie die het in die gesprekken ontvangt, kunnen herhalen aan leden van de openbaar.

Leuk vinden ChatGPT, Bard is nu gratis beschikbaar voor iedereen om te proberen. Op zijn webpagina waarschuwt het gebruikers: "Voeg alsjeblieft geen informatie toe die kan worden gebruikt om jou of anderen te identificeren in je Bard-gesprekken."

Het voegt eraan toe dat Google "Bard-gesprekken, gerelateerde productgebruiksinformatie, informatie over uw locatie en uw feedback' en gebruikt de gegevens om Google-producten en -services te verbeteren, waaronder Bard.

Google zegt dat het Bard-activiteit maximaal 18 maanden opslaat, hoewel een gebruiker dit in zijn Google-account kan wijzigen in drie of 36 maanden.

Het voegt eraan toe dat Bard-gesprekken als privacymaatregel worden losgekoppeld van een Google-account voordat een menselijke recensent ze ziet.

Reuters zei dat hoewel de waarschuwing van Alphabet al een tijdje van kracht is, het deze onlangs heeft uitgebreid en zijn werknemers heeft verteld om geen nauwkeurige computercode te gebruiken die door chatbots is gegenereerd. Het bedrijf vertelde het nieuwscentrum dat Bard soms "ongewenste codesuggesties" kan doen, hoewel de huidige iteratie van de tool nog steeds wordt beschouwd als een levensvatbare programmeerhulp.

Alphabet is niet het enige bedrijf dat zijn werknemers waarschuwt voor de privacy- en veiligheidsrisico's die verbonden zijn aan het gebruik van de chatbots. Samsung heeft onlangs een soortgelijke instructie aan zijn werknemers nadat een aantal van hen gevoelige halfgeleidergerelateerde gegevens in ChatGPT had ingevoerd, en naar verluidt hebben onder andere Apple en Amazon ook een soortgelijk intern beleid ingevoerd.

Aanbevelingen van de redactie

  • De beste AI-videobewerkingstools
  • ChatGPT-maker OpenAI wordt geconfronteerd met FTC-onderzoek over wetten voor consumentenbescherming
  • Het verkeer op de ChatGPT-website is voor het eerst gedaald
  • OpenAI bouwt nieuw team om te voorkomen dat superintelligente AI schurkenstaten wordt
  • Al het internet behoort nu tot de AI van Google

Upgrade je levensstijlDigital Trends helpt lezers de snelle wereld van technologie in de gaten te houden met het laatste nieuws, leuke productrecensies, verhelderende hoofdartikelen en unieke sneak peeks.