O Facebook está usando bots para prever e prevenir mau comportamento

click fraud protection

Apesar dos muitos esforços do Facebook, os maus atores conseguem sempre infiltrar-se através das suas salvaguardas e políticas. A rede social está agora a experimentar uma nova forma de reforçar as suas barreiras anti-spam e prevenir maus comportamentos que possam potencialmente violar as suas salvaguardas: um exército de bots.

Facebook diz que está desenvolvendo um novo sistema de bots que pode simular maus comportamentos e testar sua plataforma para descobrir quaisquer falhas e brechas. Esses bots automatizados são treinados e ensinados como agir como uma pessoa real, utilizando o tesouro de modelos de comportamento Facebook adquiriu de seus mais de dois bilhões de usuários.

Vídeos recomendados

Para garantir que esta experiência não interfira com utilizadores reais, o Facebook também construiu uma espécie de versão paralela da sua rede social. Aqui, os bots são soltos e podem correr soltos – eles podem enviar mensagens uns aos outros, comentar postagens fictícias, enviar solicitações de amizade, visitar páginas e muito mais. Mais importante ainda, esses A.I. os bots são programados para simular cenários extremos, como venda de drogas e armas, para testar como os algoritmos do Facebook tentariam evitá-los.

Relacionado

  • Pesquisas de coronavírus do Facebook e do Google podem em breve prever surtos, dizem pesquisadores
  • Bug do Facebook fez com que artigos válidos sobre coronavírus fossem marcados como spam
  • O Facebook lembra os usuários de tomarem vacinas contra a gripe e limita o alcance de postagens antivacinas

O Facebook afirma que este novo sistema pode hospedar “milhares ou até milhões de bots”. Como ele é executado no mesmo código, os usuários realmente experiência, acrescenta que “as ações dos bots são fiéis aos efeitos que seriam testemunhados por pessoas reais usando o plataforma."

“Embora o projeto esteja no momento apenas em fase de pesquisa, a esperança é que um dia ele nos ajude a melhorar nossos serviços e identificar potenciais problemas de confiabilidade ou integridade antes que afetem pessoas reais que usam a plataforma.” escreveu o líder do projeto, Mark Harman em a postagem no blog.

Não está claro no momento quão eficaz será o novo ambiente de simulação do Facebook. Como Harman mencionou, ainda está em um estágio inicial e a empresa ainda não utilizou nenhum de seus resultados para atualizações públicas. Nos últimos anos, a rede social investiu ativamente e apoiou pesquisas baseadas em inteligência artificial para desenvolver novas ferramentas de combate ao assédio e ao spam. Em sua conferência anual de desenvolvedores, há dois anos, Mark Zuckerberg anunciou que a empresa está construindo ferramentas de inteligência artificial para lidar com postagens que apresentam conteúdo terrorista, discurso de ódio, spam e mais.

Recomendações dos Editores

  • A nova pesquisa de IA da Meta pode impulsionar traduções no Facebook, Instagram
  • Facebook compartilha dados de localização com pesquisadores de coronavírus
  • Dados privados de alguns usuários do Facebook e Twitter vazaram por meio de aplicativos maliciosos
  • O Facebook utiliza o Minecraft como campo de treinamento para o próximo estágio da IA.
  • O Facebook constrói casas virtuais para treinar IA. agentes em ambientes realistas

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.