Dois executivos do Google disseram na sexta-feira que o preconceito na inteligência artificial está prejudicando as comunidades já marginalizadas na América e que é preciso fazer mais para garantir que isso não aconteça. X. Olho, líder de divulgação para inovação responsável no Google e Angela Williams, gerente de políticas do Google, falou em (Não IRL) Cimeira do Orgulho, um evento organizado pela Lesbians Who Tech & Allies, a maior organização LGBTQ do mundo com foco em tecnologia para mulheres, pessoas não binárias e trans em todo o mundo.
Em separadofala, abordaram as formas como a tecnologia de aprendizagem automática pode ser usada para prejudicar a comunidade negra e outras comunidades na América — e de forma mais ampla em todo o mundo.
Vídeos recomendados
O preconceito nos algoritmos NÃO É APENAS UM PROBLEMA DE DADOS. A escolha de usar IA pode ser tendenciosa, a forma como o algoritmo aprende pode ser tendenciosa e a forma como os usuários são impactados/interagem/percebem um sistema pode reforçar o preconceito! Confira @timnitGebrupara saber mais!
-X. Olhoé??? (@TechWithX) 26 de junho de 2020
Williams discutiu o uso de IA. para uma vigilância abrangente, o seu papel na policiamento excessivoe sua implementação para sentenças tendenciosas. “[Não é] que a tecnologia seja racista, mas podemos codificar o nosso próprio preconceito inconsciente na tecnologia”, disse ela. Williams destacou a caso de Robert Julian-Borchak Williams, um afro-americano de Detroit que foi recentemente preso injustamente depois que um sistema de reconhecimento facial combinou incorretamente sua foto com imagens de segurança de um ladrão de lojas. Estudos anteriores mostraram que os sistemas de reconhecimento facial podem ter dificuldade em distinguir entre diferentes pessoas negras. “É aqui que a IA. … a vigilância pode dar terrivelmente errado no mundo real”, disse Williams.
X. Eyeé também discutiu como A.I. pode ajudar a “dimensionar e reforçar preconceitos injustos”. Além dos usos mais quase distópicos e chamativos de AI, Eyeé se concentrou na maneira pela qual o preconceito poderia se infiltrar em usos cotidianos e aparentemente mais mundanos da tecnologia – incluindo o próprio Google ferramentas. “No Google, esses desafios não são estranhos”, disse Eyeé. “Nos últimos anos… estivemos nas manchetes várias vezes sobre como nossos algoritmos impactaram negativamente as pessoas.” Por exemplo, o Google desenvolveu uma ferramenta para classificando a toxicidade dos comentários online. Embora isso possa ser muito útil, também foi problemático: frases como “Eu sou uma mulher negra gay” foram inicialmente classificadas como mais tóxico do que “Eu sou um homem branco”. Isto ocorreu devido a uma lacuna nos conjuntos de dados de treinamento, com mais conversas sobre certas identidades do que outros.
Não há soluções abrangentes para esses problemas, disseram os dois executivos do Google. Sempre que são encontrados problemas, o Google trabalha para eliminar preconceitos. Mas a gama de potenciais locais onde o preconceito pode entrar nos sistemas – desde a concepção de algoritmos até à sua implantação no contexto social sob o qual os dados são produzidos - significa que sempre haverá problemas exemplos. A chave é estar ciente disto, permitir que tais ferramentas sejam examinadas e que diversas comunidades possam fazer ouvir as suas vozes sobre a utilização destas tecnologias.
Recomendações dos Editores
- A IA pode vencer os engenheiros humanos no projeto de microchips? Google pensa assim
- A IA do BigSleep é como a Pesquisa de imagens do Google para imagens que ainda não existem
- O Google traz de volta os humanos para assumir a moderação do conteúdo do YouTube da IA.
- Notícias falsas? IA algoritmo revela preconceito político nas histórias que você lê
- IA o upscaling faz com que este filme de 1896 pareça ter sido filmado em deslumbrante 4K
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.