Google dice al personale di diffidare dei chatbot AI

Alphabet ha detto ai suoi dipendenti di non inserire informazioni riservate in Bard, il chatbot generativo di intelligenza artificiale creato e gestito da Google, di proprietà di Alphabet.

L'avvertimento dell'azienda si estende anche ad altri chatbot, come ChatGPT supportato da Microsoft di OpenAI, Lo ha riferito Reuters di giovedì.

Video consigliati

I chatbot basati sull'intelligenza artificiale hanno suscitato un enorme interesse negli ultimi mesi grazie alla loro impressionante capacità di conversare in modo umano, scrivere saggi e relazioni e persino superare i test accademici.

Imparentato

  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • La nuova società di intelligenza artificiale di Elon Musk mira a "comprendere l'universo"
  • Le scoperte dell'IA potrebbero arrivare attraverso il cervello delle api, affermano gli scienziati

Ma Alphabet è preoccupata per i suoi dipendenti che trapelano inavvertitamente dati interni tramite gli strumenti.

Nel lavoro in corso per perfezionare e migliorare la tecnologia AI avanzata, i revisori umani possono leggere le conversazioni che gli utenti hanno con i chatbot, ponendo un rischio per la privacy personale e anche la potenziale esposizione di segreti commerciali, quest'ultimo dei quali Alphabet sembra essere particolarmente preoccupato Di.

Inoltre, i chatbot vengono in parte addestrati utilizzando gli scambi di testo degli utenti, quindi con determinati prompt, lo strumento potrebbe potenzialmente ripetere le informazioni riservate che riceve in tali conversazioni ai membri del pubblico.

Come ChatGPT, Bard è ora liberamente disponibile per chiunque di provare. Sulla sua pagina web, avverte gli utenti: "Si prega di non includere informazioni che possono essere utilizzate per identificare te o altri nelle tue conversazioni con Bard".

Aggiunge che Google raccoglie "conversazioni Bard, informazioni sull'utilizzo del prodotto correlato, informazioni sul tuo posizione e il tuo feedback" e utilizza i dati per migliorare i prodotti e i servizi Google che includono Bardo.

Google afferma di memorizzare l'attività di Bard per un massimo di 18 mesi, sebbene un utente possa modificarlo in tre o 36 mesi nel proprio account Google.

Aggiunge che, come misura di privacy, le conversazioni di Bard vengono disconnesse da un account Google prima che un revisore umano le veda.

Reuters ha affermato che sebbene l'avvertimento di Alphabet sia in atto da un po', recentemente lo ha ampliato, dicendo ai suoi dipendenti di evitare di utilizzare un codice informatico preciso generato dai chatbot. La società ha dichiarato al notiziario che Bard a volte può fornire "suggerimenti di codice indesiderati", sebbene l'attuale iterazione dello strumento sia ancora considerata un valido aiuto alla programmazione.

Alphabet non è l'unica azienda ad avvertire i propri dipendenti dei rischi per la privacy e la sicurezza legati all'utilizzo dei chatbot. Samsung ha recentemente rilasciato a istruzione simile ai suoi lavoratori dopo che alcuni di loro hanno inserito dati sensibili relativi ai semiconduttori in ChatGPT, e anche Apple e Amazon, tra gli altri, hanno adottato una politica interna simile.

Raccomandazioni della redazione

  • I migliori strumenti di editing video AI
  • Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
  • Il traffico del sito Web ChatGPT è diminuito per la prima volta
  • OpenAI costruisce un nuovo team per impedire che l'IA superintelligente diventi canaglia
  • Tutto Internet ora appartiene all'intelligenza artificiale di Google

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.