Esta IA Poderia abalar a maneira como lemos os comentários online

Como você resolve um problema como a internet? É uma questão que, francamente, não faria muito sentido há um quarto de século. A Internet, com a sua capacidade de difundir informação e valores democráticos em todos os cantos mais remotos da Terra, era a resposta.

Conteúdo

  • Uma voz para quem não tem voz
  • Acentue o positivo
  • Não há soluções fáceis

Pedir a cura para a internet era como pedir a cura para a cura do câncer. Aqui em 2020, o quadro é um pouco mais turvo. Sim, a Internet é surpreendentemente brilhante para todos os tipos de coisas. Mas também coloca problemas, desde o propagação de notícias falsas para, bem, a fossa digital que é toda seção de comentários do YouTube. Em outras palavras, a internet pode ser tóxica de todos os tipos. Como podemos limpar isso?

Getty

Não há respostas simples aqui. A censura algorítmica ou conduzida por humanos é a resposta? Devemos fechar todas as seções de comentários sobre temas controversos? Uma plataforma privada realmente precisa se sentir obrigada a dar voz a todos? Como é que o bloqueio de opiniões marginais para o bem público se enquadra no sonho da Internet de dar voz a todos?

Relacionado

  • IA analógica? Parece loucura, mas pode ser o futuro
  • Leia a estranhamente bela “escritura sintética” de uma IA. que pensa que é Deus
  • Arquitetura algorítmica: devemos deixar a I.A. projetar edifícios para nós?

Pesquisadores da Universidade Carnegie Mellon criaram uma nova ferramenta intrigante que acreditam poder ajudar. É um algoritmo de inteligência artificial que funciona não bloqueando o discurso negativo, mas sim destacando ou amplificando o “discurso de ajuda” para torná-lo mais fácil de encontrar. No processo, eles esperam que isso possa ajudar na ambição cibertópica de tornar a Internet uma voz para capacitar os que não têm voz.

Vídeos recomendados

Uma voz para quem não tem voz

Campo de refugiados Rohingya
Campo de refugiados Rohingya

A IA idealizado pela equipe, da Carnegie Mellon's Instituto de Tecnologias da Linguagem, analisa os comentários do YouTube e destaca comentários que defendem ou simpatizam, neste caso, com minorias marginalizadas, como a comunidade Rohingya. O povo muçulmano Rohingya tem sido sujeito a uma série de perseguições em grande parte contínuas por parte do governo de Mianmar desde Outubro de 2016. A crise genocida forçou mais de um milhão de Rohingyas a fugir para países vizinhos. É uma situação desesperadora que envolve perseguição religiosa e limpeza étnica – mas você não necessariamente saberia disso pelos muitos comentários que apareceram nas redes sociais locais; esmagador o número de comentários do outro lado da questão.

“Desenvolvemos uma estrutura para defender a causa de uma minoria marginalizada – neste caso, os Rohingyas – para detectar automaticamente o conteúdo da web que os apoia”, Ashique Khudabukhsh, cientista de projeto do Departamento de Ciência da Computação da Carnegie Mellon, disse à Digital Trends. “Nós nos concentramos no YouTube, uma plataforma de mídia social imensamente popular no Sul da Ásia. As nossas análises revelaram que um grande número de comentários sobre os Rohingyas eram depreciativos para eles. Desenvolvemos um método automatizado para detectar comentários que defendem sua causa, que de outra forma seriam abafados por um grande número de comentários negativos e duros.”

“De uma perspectiva geral, o nosso trabalho difere do trabalho tradicional de detecção de discurso de ódio, onde o foco principal é bloquear o conteúdo negativo, [embora esta seja] uma área de pesquisa ativa e altamente importante”, Khudabukhsh contínuo. “Em contraste, nosso trabalho de detecção de comentários de apoio – o que chamamos de discurso de ajuda – marca uma nova direção para melhorar a experiência online através da amplificação dos aspectos positivos.”

Para treinar sua I.A. sistema de filtragem, os pesquisadores reuniram mais de um quarto de milhão de comentários no YouTube. Usando tecnologia de modelagem linguística de ponta, eles criaram um algoritmo que pode vasculhar esses comentários para destacar rapidamente os comentários que estão do lado da comunidade Rohingya. A análise semântica automatizada dos comentários dos usuários não é, como seria de esperar, fácil. Só no subcontinente indiano, existem 22 línguas principais. Também há erros ortográficos frequentes e variações ortográficas fora do padrão que precisam ser resolvidos quando se trata de avaliar o idioma.

Acentue o positivo

No entanto, a IA. desenvolvidos pela equipe conseguiram aumentar muito a visibilidade dos comentários positivos. Mais importante ainda, foi capaz de fazer isso muito mais rapidamente do que seria possível para um moderador humano, que não conseguiriam analisar manualmente grandes quantidades de comentários em tempo real e fixar determinados comentários. Isto pode ser particularmente importante em cenários em que um dos lados pode ter competências limitadas numa língua dominante, acesso limitado a a Internet, ou questões de maior prioridade (leia-se: evitar perseguição) que podem ter precedência sobre a participação em atividades on-line conversas.

“E se você não estiver presente em uma discussão global sobre você e não puder se defender?”

“Todos nós já experimentamos ser aquele amigo que defendeu outro amigo em sua ausência”, continuou Khudabukhsh. “Agora considere isso em uma escala global. E se você não estiver presente em uma discussão global sobre você e não puder se defender? Como a IA pode ajudar nesta situação? Chamamos a isto um problema do século XXI: crises de migrantes na era da Internet omnipresente, onde as vozes dos refugiados são poucas e raras. No futuro, sentimos que as questões geopolíticas, as razões climáticas e as motivadas pelos recursos podem desencadear novas crises migratórias e o nosso trabalho para defender as comunidades em risco no mundo online é altamente importante.”

Mas será suficiente simplesmente destacar certas vozes minoritárias, ou isto é apenas uma versão algorítmica do conceito apresentado a cada poucos anos de lançar um meio de comunicação que conte apenas boas notícias? Talvez em alguns aspectos, mas também vai muito além de apenas destacar comentários simbólicos, sem oferecer formas de abordar problemas mais amplos. Com isso em mente, os pesquisadores já expandiram o projeto para analisar maneiras pelas quais a I.A. pode ser usado para amplificar conteúdo positivo em outros ambientes diferentes, mas ainda assim de alto impacto social. cenários. Um exemplo são as discussões online durante o aumento da tensão política entre adversários nucleares. Este trabalho, que a equipa apresentará na Conferência Europeia sobre Inteligência Artificial (ECAI 2020) em junho, poderá ser utilizado para ajudar a detetar e apresentar conteúdos que difiram hostilidade. Tecnologia semelhante poderia ser criada para diversos outros cenários – com adaptação adequada para cada um.

Estas são as taxas de aceitação para #ECAI2020 contribuições:
– Artigos completos: 26,8%
– Artigos de destaque: 45%

Muito obrigado pelo esforço que você colocou no processo de revisão!

—ECAI2020 (@ECAI2020) 15 de janeiro de 2020

“A premissa básica de como uma comunidade pode ser ajudada depende da comunidade em questão”, disse Khudabukhsh. “Mesmo diferentes crises de refugiados exigiriam diferentes noções de ajuda. Por exemplo, em crises em que o surto de doenças contagiosas é um problema importante, a prestação de assistência médica pode ser de grande ajuda. Para alguns grupos economicamente desfavorecidos, destacar histórias de sucesso de pessoas da comunidade pode ser um factor motivador. Conseqüentemente, cada comunidade exigiria diferentes classificadores de fala de ajuda diferenciada para encontrar conteúdo positivo automaticamente. Nosso trabalho fornece um modelo para isso.”

Não há soluções fáceis

Por mais fascinante que seja este trabalho, não há soluções fáceis quando se trata de resolver o problema da fala online. Parte do desafio é que a Internet, tal como existe atualmente, recompensa as vozes altas. O algoritmo PageRank do Google, por exemplo, classifica as páginas da web de acordo com sua importância percebida, contando o número e a qualidade dos links para uma página. Os tópicos de tendência no Twitter são ditados pelo que o maior número de pessoas está twittando. As seções de comentários frequentemente destacam as opiniões que provocam as reações mais fortes.

O número inimaginavelmente grande de vozes na Internet pode abafar as vozes dissidentes; muitas vezes marginalizando vozes que, pelo menos em teoria, têm a mesma plataforma que qualquer outra pessoa.

Mudar isso exigirá muito mais do que um algoritmo interessante de verificação de comentários do YouTube. No entanto, não é um mau começo.

Recomendações dos Editores

  • Toque final: como os cientistas estão dando aos robôs sentidos táteis semelhantes aos humanos
  • A fórmula engraçada: por que o humor gerado por máquina é o Santo Graal da IA
  • IA normalmente não esquece nada, mas o novo sistema do Facebook sim. Aqui está o porquê
  • IA com detecção de emoção está aqui e pode estar na sua próxima entrevista de emprego
  • Supermodelo de linguagem: como o GPT-3 está silenciosamente inaugurando a IA. revolução