Modelo de aprendizagem profunda de código aberto do Yahoo para pornografia

Yahoo
Quer manter o conteúdo que não é seguro para o trabalho fora da sua tela de trabalho? A inteligência artificial pode ajudá-lo a fazer isso. Na sexta-feira, o engenheiro de pesquisa do Yahoo, Jay Mahadeokar, e o diretor sênior de gerenciamento de produtos, Gerry Pesavento, publicaram um postagem no blog anunciando o lançamento do “modelo de aprendizado profundo da empresa que permitirá aos desenvolvedores experimentar um classificador para detecção de NSFW, e nos fornecer feedback sobre maneiras de melhorar o classificador.” Em essência, o Yahoo está abrindo o código-fonte de seus algoritmos para detectar conteúdo pornográfico imagens.

“Identificar automaticamente que uma imagem não é adequada/segura para o trabalho (NSFW), incluindo imagens ofensivas e adultas imagens, é um problema importante que os pesquisadores vêm tentando resolver há décadas”, escreveu a equipe do Yahoo em Sexta-feira. “Com a evolução da visão computacional, dados de treinamento aprimorados e algoritmos de aprendizado profundo, os computadores agora são capazes de classificar automaticamente o conteúdo da imagem NSFW com maior precisão.”

Vídeos recomendados

Dito isso, não existe atualmente um modelo ou algoritmo de código aberto para identificar imagens NSFW, apontou o Yahoo. Como tal, “no espírito de colaboração e com a esperança de avançar neste empreendimento”, a empresa está preenchendo a lacuna, fornecendo uma ferramenta de aprendizado de máquina que se concentra apenas na identificação de conteúdo pornográfico imagens. A razão para esta especificidade, explicou o Yahoo, é que “o que pode ser questionável num contexto pode ser adequado noutro”. Mas, para esses fins, a pornografia é decididamente inadequada.

Relacionado

  • DeepSqueak é uma IA de aprendizado de máquina. que revela sobre o que os ratos estão conversando

O sistema do Yahoo usa aprendizado profundo para atribuir a uma imagem uma pontuação entre 0 e 1 para determinar o quão NSFW ela realmente é. “Os desenvolvedores podem usar essa pontuação para filtrar imagens abaixo de um determinado limite adequado com base em um ROC curva para casos de uso específicos ou use esse sinal para classificar imagens nos resultados de pesquisa”, disse o Yahoo. Mas tenha em mente que não há garantia de precisão aqui – na verdade, é aí que você entra. “Este modelo é um modelo de referência de uso geral, que pode ser usado para a filtragem preliminar de imagens pornográficas”, concluiu a postagem do blog. “Não fornecemos garantias de precisão do resultado; em vez disso, disponibilizamos isso para os desenvolvedores explorarem e aprimorarem como um projeto de código aberto.”

Recomendações dos Editores

  • Aprendizado profundo de IA pode imitar os efeitos de distorção dos deuses icônicos da guitarra
  • O que é aprendizagem profunda?

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.