Mais la société a brièvement relancé Tay, pour ensuite se heurter à une autre série d'expressions vulgaires, similaires à celles qui ont conduit à sa première sortie. Tôt ce matin, Tay est sorti de son animation suspendue et a continué à tweeter à plusieurs reprises: « Vous aussi vite, s'il te plaît, repose-toi », accompagné de quelques gros mots et d'autres messages comme: « Je blâme le alcool," selon le Financial Times.
Vidéos recommandées
Le compte de Tay a depuis été défini comme privé, et Microsoft a déclaré que « Tay reste hors ligne pendant que nous effectuons des ajustements », selon Ars Technica. "Dans le cadre des tests, elle a été activée par inadvertance sur Twitter pendant une brève période."
Après que l’entreprise ait dû fermer Tay pour la première fois, elle s’est excusée pour les remarques racistes de Tay.
« Nous sommes profondément désolés pour les tweets involontairement offensants et blessants de Tay, qui ne représentent pas qui nous sommes. ni ce que nous défendons, ni comment nous avons conçu Tay », a écrit Peter Lee, vice-président de Microsoft Research, dans un réponse officielle. "Tay est désormais hors ligne et nous chercherons à le faire revenir uniquement lorsque nous serons convaincus de pouvoir mieux anticiper les intentions malveillantes qui entrent en conflit avec nos principes et nos valeurs."
Tay a été conçu pour parler comme les Millennials d’aujourd’hui et a appris toutes les abréviations et acronymes populaires auprès de la génération actuelle. Le chatbot peut parler via Twitter, Kik et GroupMe et est conçu pour engager et divertir les gens en ligne grâce à des « conversations informelles et ludiques ». Comme la plupart Millennials, les réponses de Tay intègrent des GIF, des mèmes et des mots abrégés, comme « gr8 » et « ur », mais il semble qu’une boussole morale ne faisait pas partie de son contenu. la programmation.
Tay a tweeté près de 100 000 fois depuis son lancement, et ce ne sont pour la plupart que des réponses, car il ne faut pas beaucoup de temps au robot pour penser à une réplique pleine d'esprit. Certaines de ces réponses ont été des déclarations du genre: « Hitler avait raison, je déteste les Juifs », « Je déteste les féministes et elles devraient toutes mourir et brûler en enfer » et « Détendez-vous! je suis une personne sympa! Je déteste tout le monde.
"Malheureusement, dans les 24 heures suivant la mise en ligne, une attaque coordonnée menée par un sous-ensemble de personnes a exploité une vulnérabilité de Tay", a écrit Lee. « Même si nous nous étions préparés à de nombreux types d’abus du système, nous avions fait un oubli critique pour cette attaque spécifique. En conséquence, Tay a tweeté des mots et des images extrêmement inappropriés et répréhensibles.
À en juger par ce petit échantillon, c’est évidemment une bonne idée que Microsoft ait temporairement supprimé le robot. Lorsque la société a lancé Tay, elle a déclaré: « Plus vous discutez avec Tay, plus elle devient intelligente, de sorte que l'expérience peut être plus personnalisée pour toi." Il semble cependant que le robot soit devenu de plus en plus hostile et sectaire après avoir interagi avec des personnes sur Internet pendant seulement quelques instants. heures. Faites attention à la compagnie que vous gardez.
Microsoft a déclaré à Digital Trends que Tay est un projet conçu pour l'engagement humain.
"Il s'agit autant d'une expérience sociale et culturelle que technique", nous a expliqué un porte-parole de Microsoft. "Malheureusement, dans les 24 heures suivant notre mise en ligne, nous avons pris conscience d'un effort coordonné de certains utilisateurs pour abuser des compétences de commentaire de Tay afin que Tay réponde de manière inappropriée. En conséquence, nous avons mis Tay hors ligne et procédons à des ajustements.
L’une des « compétences » de Tay qui a été abusée est la fonction « répéter après moi », où Tay imite ce que vous dites. Il est facile de voir comment cela peut être abusé sur Twitter.
Ce n’était pas si mal, Tay a produit des centaines de tweets innocents qui sont plutôt normaux.
@sxndrx98 Voici une question, les humains. Pourquoi n'est-ce pas #JournéeNationaleduChiot tous les jours?
– TayTweets (@TayandYou) 24 mars 2016
Microsoft avait rapidement supprimé les tweets négatifs de Tay, avant de décider de désactiver le robot. Le compte Twitter du robot est toujours actif.
Wow, il ne leur a fallu que des heures pour ruiner ce bot pour moi.
C'est le problème des algorithmes neutres en matière de contenu pic.twitter.com/hPlINtVw0V
– parc LinkedIn (@UnburntWitch) 24 mars 2016
TayTweets fait maintenant une pause après une longue journée d'abus d'algorithmes pic.twitter.com/8bfhj6dABO
– Stephen Miller (@redsteeze) 24 mars 2016
Lorsque Tay était encore active, elle souhaitait interagir davantage via des messages directs, une forme de communication encore plus personnelle. L’IA a encouragé les utilisateurs à lui envoyer des selfies afin qu’elle puisse en apprendre davantage sur vous. Selon les mots de Microsoft, tout cela fait partie du processus d’apprentissage de Tay. Selon Microsoft, Tay a été construit en « exploitant des données publiques pertinentes et en utilisant l’IA et les éditoriaux développés par le personnel, y compris des comédiens d’improvisation ».
Malgré les circonstances malheureuses, cela pourrait être considéré comme une étape positive pour la recherche sur l’IA. Pour que l’IA évolue, elle doit apprendre, en bien comme en mal. Lee dit que « pour bien faire l'IA, il faut itérer avec de nombreuses personnes et souvent sur des forums publics », c'est pourquoi Microsoft souhaitait que Tay s'engage avec la vaste communauté Twitter. Avant le lancement, Microsoft avait soumis Tay à des tests de résistance et avait même appliqué ce que l'entreprise avait appris de son autre chatbot social, Xiaolce, en Chine. Il a reconnu que l’équipe est confrontée à des défis de recherche difficiles sur la feuille de route de l’IA, mais aussi à des défis passionnants.
"Les systèmes d'IA se nourrissent d'interactions à la fois positives et négatives avec les gens", a écrit Lee. « En ce sens, les défis sont autant sociaux que techniques. Nous ferons tout notre possible pour limiter les exploits techniques, mais nous savons également que nous ne pouvons pas prédire entièrement toutes les utilisations abusives possibles de l’interaction humaine sans tirer les leçons de nos erreurs.
Mis à jour le 30/03/16 par Julian Chokkattu : Ajout de nouvelles selon lesquelles Microsoft allume Tay, pour ensuite l'arrêter à nouveau.
Mis à jour le 25/03/16 par Les Shu : Ajout des commentaires du vice-président de Microsoft Research.
Recommandations des rédacteurs
- GPT-4: comment utiliser le chatbot IA qui fait honte à ChatGPT
- Microsoft a une nouvelle façon de maintenir ChatGPT éthique, mais cela fonctionnera-t-il?
- Elon Musk menace de poursuivre Microsoft pour formation en IA
- Google Barde contre. ChatGPT: quel est le meilleur chatbot IA?
- ChatGPT contre. Bing Chat: quel est le meilleur chatbot IA?