A partir de una vídeo de una víctima de suicidio en YouTube para anuncios dirigidos a "que odian a los judíos" en Facebook, las plataformas de redes sociales están plagadas de contenido inapropiado que logra pasar desapercibido. En muchos casos, la respuesta de la plataforma es implementar algoritmos más inteligentes para identificar mejor el contenido inapropiado. Pero, ¿qué es realmente capaz de detectar la inteligencia artificial, cuánto debemos confiar en ella y dónde falla estrepitosamente?
"AI. Puede captar lenguaje ofensivo y reconocer imágenes muy bien. El poder de identificar la imagen está ahí”, dice Winston Binch, director digital de
Alemán, una agencia creativa que utiliza A.I. en la creación de campañas digitales para marcas desde Target hasta Taco Bell. "El área gris se convierte en la intención".AI. Puede leer tanto texto como imágenes, pero la precisión varía.
Utilizando el procesamiento del lenguaje natural, A.I. Se puede entrenar para reconocer texto en varios idiomas. A un programa diseñado para detectar publicaciones que violan las pautas de la comunidad, por ejemplo, se le puede enseñar a detectar insultos raciales o términos asociados con propaganda extremista.
AI. También se puede entrenar para reconocer imágenes, prevenir algunas formas de desnudez o reconocer símbolos como la esvástica. Funciona bien en muchos casos, pero no es infalible. Por ejemplo, Google Fotos fue criticado por etiquetar imágenes de personas de piel oscura con la palabra clave "gorila." Años después, Google todavía no ha encontrado una solución al problema y optó por eliminar el la capacidad del programa para etiquetar monos y gorilas enteramente.
Los algoritmos también deben actualizarse a medida que evoluciona el significado de una palabra o para comprender cómo se usa una palabra en contexto. Por ejemplo, los usuarios LGBT de Twitter notaron recientemente una falta de resultados de búsqueda para #gay y #bisexual, entre otros términos, lo que llevó a algunos a sentir que el servicio los estaba censurando. Twitter se disculpó por el error y lo culpó a un algoritmo obsoleto eso estaba identificando falsamente publicaciones etiquetadas con los términos como potencialmente ofensivos. Twitter dijo que se suponía que su algoritmo debía considerar el término en el contexto de la publicación, pero no había podido hacerlo con esas palabras clave.
AI. es parcial
El fracaso en el etiquetado de gorilas plantea otra deficiencia importante: AI. es parcial. Quizás se pregunte cómo es posible que una computadora esté sesgada, pero la A.I. se entrena observando a las personas completar tareas o ingresando los resultados de esas tareas. Por ejemplo, los programas para identificar objetos en una fotografía a menudo se entrenan alimentando al sistema con miles de imágenes que inicialmente fueron etiquetadas a mano.
El elemento humano es lo que hace posible que la A.I. realizar tareas pero al mismo tiempo le da un sesgo humano.
El elemento humano es lo que hace posible que la A.I. para completar tareas que antes eran imposibles en un software típico, pero ese mismo elemento humano también, sin darse cuenta, le da un sesgo humano a una computadora. Una IA El programa es tan bueno como los datos de entrenamiento: si el sistema recibió principalmente imágenes de hombres blancos, por ejemplo, el programa tendrá dificultades para identificar personas con otros tonos de piel.
“Una deficiencia de la IA, en general, cuando se trata de moderar cualquier cosa, desde comentarios hasta comentarios de usuarios. contenido, es que es inherentemente obstinado por diseño ", dijo PJ Ahlberg, el técnico ejecutivo Director de Stink Estudios Nueva York, una agencia que utiliza A.I. para crear bots de redes sociales y moderar campañas de marca.
Una vez que se desarrolla un conjunto de capacitación, esos datos a menudo se comparten entre los desarrolladores, lo que significa que el sesgo se extiende a múltiples programas. Ahlberg dice que ese factor significa que los desarrolladores no pueden modificar esos conjuntos de datos en programas que utilizan múltiples sistemas de inteligencia artificial. sistemas, lo que dificulta eliminar cualquier sesgo después de descubrirlos.
AI. no se puede determinar la intención
AI. puede detectar una esvástica en una fotografía, pero el software no puede determinar cómo se está utilizando. Facebook, por ejemplo, se disculpó recientemente después eliminar una publicación que contenía una esvástica pero iba acompañado de un mensaje de texto pidiendo detener la propagación del odio.
Este es un ejemplo del fracaso de la A.I. reconocer la intención. Facebook incluso etiquetó una foto de la estatua de neptuno como sexualmente explícito. Además, los algoritmos pueden marcar involuntariamente trabajos fotoperiodísticos debido a símbolos de odio o violencia que pueden aparecer en las imágenes.
Las imágenes históricas compartidas con fines educativos son otro ejemplo: en 2016, Facebook causó una controversia después de eliminó la histórica fotografía de la “niña del napalm” varias veces antes de que la presión de los usuarios obligara a la empresa a cambiar su postura de línea dura sobre la desnudez y restablecer la foto.
AI. tiende a servir como una evaluación inicial, pero a menudo todavía se necesitan moderadores humanos para determinar si el contenido realmente viola los estándares de la comunidad. A pesar de las mejoras en la IA, esto no es un hecho que esté cambiando. Facebook, por ejemplo, está aumentando el tamaño de su equipo de revisión a 20.000 este año, el doble que el año pasado.
AI. está ayudando a los humanos a trabajar más rápido
Es posible que todavía sea necesario un cerebro humano, pero la A.I. ha hecho que el proceso sea más eficiente. AI. puede ayudar a determinar qué publicaciones requieren una revisión humana, así como también ayudar a priorizar esas publicaciones. En 2017, Facebook compartió que AI. diseñado para detectar tendencias suicidas había dado lugar a 100 llamadas a servicios de emergencia en un mes. En el momento,
Getty Images/Blackzheep
"[AI. ha recorrido un largo camino y definitivamente está progresando, pero la realidad es que todavía se necesita un elemento humano que verifique que estás modificando las palabras correctas, el contenido correcto y el mensaje correcto”, dijo Chris Mele, director general de Stink. Estudios. “Donde se siente A.I. Lo que funciona mejor es facilitar a los moderadores humanos y ayudarlos a trabajar más rápido y a mayor escala. No creo que la A.I. está cerca de ser 100 por ciento automatizado en cualquier plataforma”.
AI. Es rápido, pero la ética es lenta.
La tecnología, en general, tiende a crecer a un ritmo más rápido que el que las leyes y la ética pueden seguir, y la moderación de las redes sociales no es una excepción. Binch sugiere que ese factor podría significar una mayor demanda de empleados con experiencia en humanidades o ética, algo que la mayoría de los programadores no tienen.
Como él mismo lo expresó: “Ahora estamos en un lugar donde el ritmo, la velocidad, es tan rápido, que debemos asegurarnos de que el componente ético no se quede demasiado atrás”.
Recomendaciones de los editores
- Cuando los derechos de autor dificultan la búsqueda de bandas sonoras de vídeos, esta A.I. el músico puede ayudar
- Del 8K a la IA, esto es lo que podría llegar a las cámaras en 2019
- Las computadoras pronto serán más astutas que nosotros. ¿Eso hace que una A.I. ¿La rebelión es inevitable?