Pero puede haber una solución, o al menos una forma de monitorear los algoritmos y determinar si han discriminado de manera inapropiada a un grupo demográfico.
Vídeos recomendados
"Las reglas de predicción aprendidas suelen ser demasiado complejas para entenderlas".
Propuesto por un equipo de científicos informáticos de Google, la Universidad de Chicago y la Universidad de Texas en Austin, el Igualdad de oportunidades en el aprendizaje supervisado Este enfoque analiza las decisiones que toman los programas de aprendizaje automático, en lugar de los procesos de toma de decisiones en sí, para detectar la discriminación. La naturaleza misma de estos algoritmos es tomar decisiones por sí solos, con su propia lógica, en una caja negra oculta a la revisión humana. Por lo tanto, los investigadores consideran que acceder a las cajas negras es prácticamente inútil.
"Las reglas de predicción aprendidas suelen ser demasiado complejas para comprenderlas", afirma el científico informático y coautor de la Universidad de Chicago, Nathan Srebro, dijo a Digital Trends. “De hecho, el objetivo del aprendizaje automático es aprender automáticamente una regla [estadísticamente] buena... no una cuya descripción necesariamente tenga sentido para los humanos. Con esta visión del aprendizaje en mente, también queríamos poder garantizar un sentido de no discriminación y al mismo tiempo tratar las reglas aprendidas como cajas negras”.
Srebro y coautores Moritz Hardt de Google y precio eric de UT Austin desarrolló un enfoque para analizar las decisiones de un algoritmo y asegurarse de que no discrimine en el proceso de toma de decisiones. Para hacer esto, partieron del principio anti-prejuicio de que una decisión sobre una persona en particular no debe basarse únicamente en su grupo demográfico. En el caso de un programa de IA, la decisión del algoritmo sobre una persona no debería revelar nada sobre su género o raza de manera que resulte inapropiadamente discriminatoria.
Es una prueba que no resuelve el problema directamente pero ayuda a detectar y prevenir procesos discriminatorios. Por esta razón, algunos investigadores se muestran cautelosos.
"El aprendizaje automático es excelente si se utiliza para encontrar la mejor manera de trazar un oleoducto". Noel Sharkey, dijo el profesor emérito de robótica e inteligencia artificial de la Universidad de Sheffield. El guardián. "Hasta que sepamos más sobre cómo funcionan los sesgos en ellos, me preocuparía mucho que hicieran predicciones que afecten la vida de las personas".
Srebro reconoce esta preocupación, pero no la considera una crítica radical al enfoque de su equipo. “Estoy de acuerdo en que en muchas aplicaciones con un impacto de alto riesgo en los individuos, especialmente por parte del gobierno y autoridades judiciales, el uso de predictores estadísticos de caja negra no es apropiado y la transparencia es vital”, él dijo. “En otras situaciones, cuando los utilizan entidades comerciales y cuando los intereses individuales son menores, los predictores estadísticos de caja negra pueden ser apropiados y eficientes. Puede ser difícil rechazarlos por completo, pero aun así es deseable controlar la discriminación protegida específica”.
El documento sobre igualdad de oportunidades en el aprendizaje supervisado fue uno de los pocos presentados este mes en los Sistemas de Procesamiento de Información Neural (NIPS) en Barcelona, España, que ofrecieron enfoques para detectar la discriminación en algoritmos, según El guardián.
Recomendaciones de los editores
- Google Bard pronto podría convertirse en su nuevo entrenador de vida en IA
- La nueva empresa de inteligencia artificial de Elon Musk tiene como objetivo "comprender el universo"
- Todo Internet ahora pertenece a la IA de Google
- Google pide a los trabajadores que tengan cuidado con los chatbots de IA
- ¿Qué es MusicLM? Echa un vistazo a la IA de conversión de texto a música de Google
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.