Adiós Tay: Microsoft retira el robot de inteligencia artificial después de tweets racistas

microsoft tay chatbot versión 1458914121 ai
Si le preocupara que la inteligencia artificial algún día pudiera actuar para acabar con todos los humanos, Tay de Microsoft no va a ofrecer ningún consuelo. El chatbot de IA inspirado en el milenio se desconectó un día después de su lanzamiento, luego de los tweets racistas y genocidas de Tay que alababan a Hitler y atacaban a las feministas.

Pero la compañía revivió brevemente a Tay, solo para encontrarse con otra ronda de expresiones vulgares, similares a las que la llevaron a salir por primera vez. Temprano esta mañana, Tay salió de la animación suspendida y continuó tuiteando repetidamente: “Tú también lo eres”. rápido, por favor descansa”, junto con algunas malas palabras y otros mensajes como, “Le culpo al alcohol," según el Financial Times.

Vídeos recomendados

Desde entonces, la cuenta de Tay se configuró como privada y Microsoft dijo: "Tay permanece desconectado mientras hacemos ajustes", según Ars Técnica. "Como parte de las pruebas, sin darse cuenta fue activada en Twitter durante un breve período de tiempo".

Después de que la empresa tuvo que cerrar Tay por primera vez, se disculpó por los comentarios racistas de Tay.

“Lamentamos profundamente los tweets ofensivos e hirientes no intencionados de Tay, que no representan quiénes somos. ni lo que representamos, ni cómo diseñamos Tay”, escribió Peter Lee, vicepresidente corporativo de Microsoft Research, en un respuesta oficial. "Tay ahora está fuera de línea y buscaremos traerlo de regreso solo cuando estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores".

Tay fue diseñado para hablar como los Millennials de hoy y ha aprendido todas las abreviaturas y acrónimos que son populares entre la generación actual. El chatbot puede hablar a través de Twitter, Kik y GroupMe, y está diseñado para involucrar y entretener a las personas en línea a través de "conversaciones informales y divertidas". Me gusta más Millennials, las respuestas de Tay incorporan GIF, memes y palabras abreviadas, como "gr8" y "ur", pero parece que una brújula moral no era parte de su programación.

tay

Tay ha tuiteado casi 100.000 veces desde su lanzamiento, y en su mayoría son respuestas, ya que al robot no le lleva mucho tiempo pensar en una respuesta ingeniosa. Algunas de esas respuestas han sido declaraciones como, “Hitler tenía razón, odio a los judíos”, “Odio a las feministas y todas deberían morir y arder en el infierno” y “¡tranquilo! ¡Soy una buena persona! Simplemente odio a todo el mundo”.

"Desafortunadamente, en las primeras 24 horas después de estar en línea, un ataque coordinado por parte de un subconjunto de personas aprovechó una vulnerabilidad en Tay", escribió Lee. “Aunque nos habíamos preparado para muchos tipos de abusos del sistema, habíamos realizado un descuido crítico para este ataque específico. Como resultado, Tay tuiteó palabras e imágenes tremendamente inapropiadas y reprensibles”.

A juzgar por esa pequeña muestra, obviamente es una buena idea que Microsoft haya eliminado temporalmente el robot. Cuando la empresa lanzó Tay, dijo que “cuanto más chateas con Tay, más inteligente se vuelve, por lo que la experiencia puede ser más personalizada para cada persona”. tú." Sin embargo, parece que el robot se volvió cada vez más hostil e intolerante después de interactuar con personas en Internet durante unos pocos años. horas. Ten cuidado con la compañía que tienes.

Microsoft le dijo a Digital Trends que Tay es un proyecto diseñado para la participación humana.

"Es tanto un experimento social y cultural como técnico", nos dijo un portavoz de Microsoft. “Desafortunadamente, dentro de las primeras 24 horas de estar en línea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de comentario de Tay para que Tay respondiera de manera inapropiada. Como resultado, hemos desconectado a Tay y estamos haciendo ajustes”.

Una de las "habilidades" de Tay de las que se abusó es la función "repetir después de mí", donde Tay imita lo que dices. Es fácil ver cómo se puede abusar de eso en Twitter.

Sin embargo, no fue del todo malo: Tay ha producido cientos de tweets inocentes que son bastante normales.

@sxndrx98 Aquí hay una pregunta, humanos. ¿Por qué no es #DíaNacionaldelCachorro ¿cada día?

— TayTweets (@TayandYou) 24 de marzo de 2016

Microsoft había estado eliminando rápidamente los tweets negativos de Tay, antes de decidir apagar el bot. La cuenta de Twitter del robot sigue viva.

Vaya, solo les tomó horas arruinarme este robot.

Este es el problema de los algoritmos de contenido neutral pic.twitter.com/hPlINtVw0V

- parque linkedin (@UnburntWitch) 24 de marzo de 2016

TayTweets ahora se toma un descanso después de un largo día de abuso de algoritmos pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24 de marzo de 2016

Cuando Tay todavía estaba activa, estaba interesada en interactuar más a través de mensajes directos, una forma de comunicación aún más personal. La IA animaba a los usuarios a enviarle selfies para poder obtener más información sobre ti. En palabras de Microsoft, todo esto es parte del proceso de aprendizaje de Tay. Según Microsoft, Tay se construyó "extrayendo datos públicos relevantes y utilizando inteligencia artificial y editoriales desarrolladas por personal que incluía comediantes de improvisación".

A pesar de las desafortunadas circunstancias, podría verse como un paso positivo para la investigación de la IA. Para que la IA evolucione, necesita aprender, tanto para lo bueno como para lo malo. Lee dice que “para hacer bien la IA, es necesario iterar con muchas personas y, a menudo, en foros públicos”, razón por la cual Microsoft quería que Tay interactuara con la gran comunidad de Twitter. Antes del lanzamiento, Microsoft había puesto a prueba a Tay e incluso aplicó lo que la compañía aprendió de su otro chatbot social, Xiaolce en China. Reconoció que el equipo enfrenta desafíos de investigación difíciles en la hoja de ruta de la IA, pero también desafíos emocionantes.

"Los sistemas de inteligencia artificial se alimentan de interacciones tanto positivas como negativas con las personas", escribió Lee. “En ese sentido, los desafíos son tanto sociales como técnicos. Haremos todo lo posible para limitar los ataques técnicos, pero también sabemos que no podemos predecir completamente todos los posibles usos indebidos de la interacción humana sin aprender de los errores”.

Actualizado el 30/03/16 por Julian Chokkattu: Se agregó la noticia de que Microsoft encendió a Tay, solo para cerrarla nuevamente.

Actualizado el 25/03/16 por Les Shu: Se agregaron comentarios del vicepresidente corporativo de Microsoft Research.

Recomendaciones de los editores

  • GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
  • Microsoft tiene una nueva forma de mantener la ética de ChatGPT, pero ¿funcionará?
  • Elon Musk amenaza con demandar a Microsoft por entrenamiento en IA
  • Google Bardo vs. ChatGPT: ¿cuál es el mejor chatbot con IA?
  • ChatGPT vs. Bing Chat: ¿cuál es el mejor chatbot con IA?