Mas pode haver uma solução – ou pelo menos uma maneira de monitorar algoritmos e saber se eles discriminaram indevidamente um grupo demográfico.
Vídeos recomendados
“As regras de previsão aprendidas são muitas vezes demasiado complexas para serem compreendidas.”
Proposto por uma equipe de cientistas da computação do Google, da Universidade de Chicago e da Universidade do Texas, em Austin, o Igualdade de oportunidades na aprendizagem supervisionada A abordagem analisa as decisões que os programas de aprendizado de máquina tomam – e não os próprios processos de tomada de decisão – para detectar discriminação. A própria natureza destes algoritmos é tomar decisões por si próprios, com a sua própria lógica, numa caixa negra escondida da revisão humana. Como tal, os investigadores consideram o acesso às caixas negras praticamente inútil.
“As regras de previsão aprendidas costumam ser muito complexas para serem compreendidas”, disse o cientista da computação e coautor da Universidade de Chicago, Nathan Srebro, disse Tendências Digitais. “Na verdade, o objetivo do aprendizado de máquina é aprender automaticamente uma regra [estatisticamente] boa… não uma cuja descrição necessariamente faça sentido para os humanos. Com esta visão de aprendizagem em mente, queríamos também ser capazes de garantir um sentimento de não discriminação, ao mesmo tempo que tratamos as regras aprendidas como caixas negras.”
Srebro e coautores Moritz Hardt do Google e Eric Preço da UT Austin desenvolveu uma abordagem para analisar as decisões de um algoritmo e garantir que ele não discriminasse no processo de tomada de decisão. Para o fazer, basearam-se no princípio anti-prejudicial de que uma decisão sobre uma determinada pessoa não deve basear-se apenas na demografia dessa pessoa. No caso de um programa de IA, a decisão do algoritmo sobre uma pessoa não deve revelar nada sobre o género ou raça dessa pessoa de uma forma que possa ser inadequadamente discriminatória.
É um teste que não resolve o problema diretamente, mas ajuda a sinalizar e prevenir processos discriminatórios. Por esse motivo, alguns pesquisadores estão cautelosos.
“O aprendizado de máquina é ótimo se você o usar para descobrir a melhor maneira de rotear um oleoduto”, Noel Sharkey, professor emérito de robótica e IA da Universidade de Sheffield, disse O guardião. “Até que saibamos mais sobre como os preconceitos funcionam neles, eu ficaria muito preocupado com o fato de eles fazerem previsões que afetam a vida das pessoas.”
Srebro reconhece esta preocupação, mas não a considera uma crítica abrangente à abordagem da sua equipa. “Concordo que em muitas aplicações com impacto de alto risco sobre os indivíduos, especialmente por parte do governo e autoridades judiciais, o uso de preditores estatísticos de caixa preta não é apropriado e a transparência é vital”, ele disse. “Em outras situações, quando usados por entidades comerciais e quando as participações individuais são menores, os preditores estatísticos de caixa preta podem ser apropriados e eficientes. Pode ser difícil proibi-los completamente, mas ainda assim é desejável controlar a discriminação protegida específica.”
O artigo sobre Igualdade de Oportunidades na Aprendizagem Supervisionada foi um dos poucos apresentados este mês no Neural Information Processing Systems (NIPS) em Barcelona, Espanha, que ofereceu abordagens para detectar discriminação em algoritmos, de acordo com O guardião.
Recomendações dos Editores
- Google Bard poderá em breve se tornar seu novo treinador de vida em IA
- A nova empresa de IA de Elon Musk visa ‘entender o universo’
- Toda a Internet agora pertence à IA do Google
- Google diz aos funcionários para terem cuidado com chatbots de IA
- O que é MusicLM? Confira a IA de conversão de texto em música do Google
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.