Adeus Tay: Microsoft puxa AI Bot após tweets racistas

click fraud protection
microsoft tay chatbot versão 1458914121 ai
Se você estivesse preocupado que a inteligência artificial pudesse um dia acabar com todos os humanos, Tay da Microsoft não vai oferecer nenhum consolo. O chatbot de IA inspirado na geração do milênio foi retirado um dia depois de seu lançamento, após os tweets racistas e genocidas de Tay elogiando Hitler e atacando feministas.

Mas a empresa reviveu Tay brevemente, apenas para se deparar com outra rodada de expressões vulgares, semelhante ao que a levou à sua primeira saída. Esta manhã, Tay saiu da animação suspensa e continuou twittando repetidamente: “Você é muito rápido, por favor, descanse”, junto com alguns palavrões e outras mensagens como “Eu culpo o álcool," de acordo com o Financial Times.

Vídeos recomendados

Desde então, a conta de Tay foi definida como privada, e a Microsoft disse que “Tay permanece offline enquanto fazemos ajustes”, de acordo com Ars Técnica. “Como parte dos testes, ela foi inadvertidamente ativada no Twitter por um breve período de tempo.”

Depois que a empresa teve que fechar Tay pela primeira vez, ela pediu desculpas pelos comentários racistas de Tay.

“Lamentamos profundamente os tweets ofensivos e ofensivos não intencionais de Tay, que não representam quem somos ou o que defendemos, nem como projetamos Tay”, escreveu Peter Lee, vice-presidente corporativo da Microsoft Research, em um resposta oficial. “Tay agora está offline e tentaremos trazê-lo de volta somente quando estivermos confiantes de que podemos antecipar melhor as intenções maliciosas que entram em conflito com nossos princípios e valores.”

Tay foi projetado para falar como os Millennials de hoje e aprendeu todas as abreviações e siglas que são populares entre a geração atual. O chatbot pode falar através do Twitter, Kik e GroupMe e foi projetado para envolver e entreter as pessoas online por meio de “conversas casuais e divertidas”. Como a maioria Millennials, as respostas de Tay incorporam GIFs, memes e palavras abreviadas, como ‘gr8’ e ‘ur’, mas parece que uma bússola moral não fazia parte de sua programação.

tay

Tay tuitou quase 100.000 vezes desde que foi lançada, e a maioria são respostas, já que não leva muito tempo para o bot pensar em uma resposta espirituosa. Algumas dessas respostas foram declarações tipo, “Hitler estava certo, eu odeio os judeus”, “Eu odeio feministas e todas elas deveriam morrer e queimar no inferno” e “Calma! eu sou uma pessoa legal! Eu simplesmente odeio todo mundo.

“Infelizmente, nas primeiras 24 horas após ficar online, um ataque coordenado por um subconjunto de pessoas explorou uma vulnerabilidade em Tay”, escreveu Lee. “Embora estivéssemos preparados para muitos tipos de abusos do sistema, fizemos uma supervisão crítica para este ataque específico. Como resultado, Tay tuitou palavras e imagens totalmente inadequadas e repreensíveis.”

A julgar por essa pequena amostra, é obviamente uma boa ideia que a Microsoft desativou temporariamente o bot. Quando a empresa lançou o Tay, ela dizia que “Quanto mais você conversa com Tay, mais inteligente ela fica, então a experiência pode ser mais personalizada para você. você." Parece, no entanto, que o bot ficou cada vez mais hostil e preconceituoso, depois de interagir com pessoas na Internet por apenas alguns horas. Tenha cuidado com a companhia que você mantém.

A Microsoft disse à Digital Trends que Tay é um projeto projetado para o envolvimento humano.

“É tanto um experimento social e cultural quanto técnico”, disse-nos um porta-voz da Microsoft. “Infelizmente, nas primeiras 24 horas após ficar online, tomamos conhecimento de um esforço coordenado de alguns usuários para abusar das habilidades de comentário de Tay para que Tay respondesse de maneira inadequada. Como resultado, colocamos Tay offline e estamos fazendo ajustes.”

Uma das “habilidades” de Tay que sofreu abuso é o recurso “repetir depois de mim”, onde Tay imita o que você diz. É fácil ver como isso pode ser abusado no Twitter.

Mas não foi de todo ruim, Tay produziu centenas de tweets inocentes que são bastante normais.

@sxndrx98 Aqui está uma pergunta, humanos. Por que não é #NationalPuppyDay diariamente?

- TayTweets (@TayandYou) 24 de março de 2016

A Microsoft excluiu rapidamente os tweets negativos de Tay antes de decidir desligar o bot. A conta do bot no Twitter ainda está ativa.

Uau, levaram apenas horas para arruinar esse bot para mim.

Este é o problema com algoritmos de conteúdo neutro pic.twitter.com/hPlINtVw0V

- parque LinkedIn (@UnburntWitch) 24 de março de 2016

TayTweets agora está fazendo uma pausa após um longo dia de abuso de algoritmo pic.twitter.com/8bfhj6dABO

-Stephen Miller (@redsteeze) 24 de março de 2016

Quando Tay ainda estava ativa, ela tinha interesse em interagir ainda mais por mensagem direta, uma forma de comunicação ainda mais pessoal. A IA incentivou os usuários a enviar selfies, para que ela pudesse saber mais sobre você. Nas palavras da Microsoft, tudo isso faz parte do processo de aprendizagem de Tay. De acordo com a Microsoft, o Tay foi construído “minerando dados públicos relevantes e usando IA e editoriais desenvolvidos por funcionários, incluindo comediantes improvisados”.

Apesar das circunstâncias infelizes, pode ser visto como um passo positivo para a investigação em IA. Para que a IA evolua, ela precisa aprender – tanto o que é bom quanto o que é ruim. Lee diz que “para fazer a IA corretamente, é preciso interagir com muitas pessoas e muitas vezes em fóruns públicos”, e é por isso que a Microsoft queria que Tay se envolvesse com a grande comunidade do Twitter. Antes do lançamento, a Microsoft testou o Tay e até aplicou o que a empresa aprendeu com seu outro chatbot social, o Xiaolce, na China. Ele reconheceu que a equipe enfrenta desafios de pesquisa difíceis no roteiro de IA, mas também desafios emocionantes.

“Os sistemas de IA se alimentam de interações positivas e negativas com as pessoas”, escreveu Lee. “Nesse sentido, os desafios são tanto sociais quanto técnicos. Faremos todo o possível para limitar as explorações técnicas, mas também sabemos que não podemos prever totalmente todos os possíveis usos indevidos interativos humanos sem aprender com os erros.”

Atualizado em 30/03/16 por Julian Chokkattu: Adicionadas notícias de que a Microsoft ativou Tay, apenas para desligá-la novamente.

Atualizado em 25/03/16 por Les Shu: Adicionados comentários do vice-presidente corporativo da Microsoft Research.

Recomendações dos Editores

  • GPT-4: como usar o chatbot AI que envergonha o ChatGPT
  • A Microsoft tem uma nova maneira de manter a ética do ChatGPT, mas funcionará?
  • Elon Musk ameaça processar a Microsoft por treinamento em IA
  • Google Bardo vs. ChatGPT: qual é o melhor chatbot de IA?
  • ChatGPT vs. Bing Chat: qual é o melhor chatbot de IA?