Alphabet a dit à ses employés de ne pas saisir d'informations confidentielles dans Bard, le chatbot IA génératif créé et exploité par Google, dont Alphabet est propriétaire.
L'avertissement de la société s'étend également à d'autres chatbots, tels que ChatGPT soutenu par Microsoft d'OpenAI, Reuters a rapporté jeudi.
Vidéos recommandées
Les chatbots alimentés par l'IA ont suscité un énorme intérêt ces derniers mois en raison de leur capacité impressionnante à converser de manière humaine, à rédiger des essais et des rapports, et même à réussir des tests académiques.
En rapport
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- La nouvelle société d'intelligence artificielle d'Elon Musk vise à "comprendre l'univers"
- Les percées de l'IA pourraient provenir du cerveau des abeilles, selon les scientifiques
Mais Alphabet craint que ses employés ne divulguent par inadvertance des données internes via les outils.
Dans le cadre des travaux en cours visant à affiner et à améliorer la technologie avancée de l'IA, les réviseurs humains peuvent lire les conversations que les utilisateurs ont avec les chatbots, posant un risque pour la vie privée et également l'exposition potentielle de secrets commerciaux, ce dernier dont Alphabet semble être particulièrement préoccupé à propos de.
De plus, les chatbots sont en partie formés à l'aide des échanges de texte des utilisateurs, donc avec certaines invites, l'outil pourrait potentiellement répéter les informations confidentielles qu'il reçoit dans ces conversations aux membres du public.
Comme ChatGPT, Bard est maintenant disponible gratuitement à quiconque d'essayer. Sur sa page Web, il avertit les utilisateurs: "Veuillez ne pas inclure d'informations pouvant être utilisées pour vous identifier ou identifier d'autres personnes dans vos conversations avec Bard."
Il ajoute que Google recueille "les conversations de Bard, les informations d'utilisation des produits connexes, les informations sur votre l'emplacement et vos commentaires ", et utilise les données pour améliorer les produits et services Google qui incluent Barde.
Google dit qu'il stocke l'activité de Bard jusqu'à 18 mois, bien qu'un utilisateur puisse changer cela à trois ou 36 mois dans son compte Google.
Il ajoute qu'en tant que mesure de confidentialité, les conversations de Bard sont déconnectées d'un compte Google avant qu'un examinateur humain ne les voie.
Reuters a déclaré que bien que l'avertissement d'Alphabet soit en place depuis un certain temps, il l'a récemment élargi, disant à ses employés d'éviter d'utiliser un code informatique précis généré par des chatbots. La société a déclaré au média que Bard peut parfois faire des "suggestions de code indésirables", bien que l'itération actuelle de l'outil soit toujours considérée comme une aide à la programmation viable.
Alphabet n'est pas la seule entreprise à avertir ses employés des risques de confidentialité et de sécurité liés à l'utilisation des chatbots. Samsung a récemment publié un instruction similaire à ses travailleurs après qu'un certain nombre d'entre eux aient introduit des données sensibles liées aux semi-conducteurs dans ChatGPT, et Apple et Amazon, entre autres, auraient également adopté une politique interne similaire.
Recommandations des éditeurs
- Les meilleurs outils de montage vidéo IA
- Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
- Le trafic du site ChatGPT a chuté pour la première fois
- OpenAI construit une nouvelle équipe pour empêcher l'IA super intelligente de devenir voyou
- Tout Internet appartient désormais à l'IA de Google
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde trépidant de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.