O YouTube pode fazer alterações no conteúdo infantil em meio a investigação

O YouTube está considerando grandes mudanças em seu algoritmo de recomendação em meio a uma investigação da Comissão Federal de Comércio sobre como lida com vídeos direcionados a crianças.

A investigação está em fase final e é uma resposta a reclamações feitas sobre o tratamento dado pela plataforma às crianças que datam de 2015, o Washington Post relatou citando fontes anônimas familiarizadas com o assunto. O YouTube foi acusado de não proteger as crianças, especialmente quando seu algoritmo recomenda ou coloca vídeos inadequados na fila. A FTC também está investigando se o YouTube coletou indevidamente dados de jovens espectadores.

Vídeos recomendados

Não está claro o que as mudanças implicariam, mas o Wall Street Journal informou essa liderança estava considerando mover todo o conteúdo infantil para seu próprio aplicativo ou remover o recurso de reprodução automática do YouTube.

No início deste ano, Vídeos do YouTube voltados para crianças foram acusados ​​de conter conteúdo prejudicial e gráfico. Também existe a preocupação de que as crianças possam assistir a vídeos no YouTube que contenham discurso de ódio, teorias da conspiração ou desinformação.

Até com o olhar atento dos pais, o algoritmo da plataforma para tendências e enfileiramento de vídeos é o principal culpado pela disseminação de conteúdo prejudicial a milhões de espectadores. Alguns vídeos visam explicitamente palavras-chave usadas por crianças – tópicos como Congeladas ou super-heróis da Marvel – na esperança de gerar opiniões do público mais jovem. Quando se trata de vídeos que incentivam o racismo ou outros tipos de ódio, o YouTube anunciou no início deste mês que iria atualizar sua política de remoção de vídeos para visar especificamente o discurso de ódio e o conteúdo discriminatório.

O YouTube incentiva os espectadores a denunciar conteúdo que viole seus Política de Segurança Infantil atual. Em teoria, o sistema deveria primeiro avisar o produtor de conteúdo e, em seguida, emitir um aviso e encerrar o canal do usuário após três avisos. As autoridades policiais só seriam notificadas se o conteúdo retratasse uma criança em perigo. Alguns vídeos passam despercebidos, no entanto, e o YouTube tem tido dificuldade em acompanhar o policiamento do conteúdo em meio às horas e horas de vídeos enviados a cada minuto.

Até mesmo o aplicativo adequado para crianças, YouTube para crianças, contém um aviso: “Usamos uma combinação de filtros, feedback de usuários e revisores humanos para manter os vídeos no YouTube Kids adequados para toda a família. Mas nenhum sistema é perfeito e vídeos inadequados podem escapar, por isso trabalhamos constantemente para melhorar nossas proteções e oferecer mais recursos para ajudar os pais a criar a experiência certa para seus famílias."

O YouTube não respondeu ao nosso pedido de comentário sobre possíveis alterações no algoritmo, mas o porta-voz Andrea Faville disse ao Post em um comunicado que nem todas as opções de alterações de produtos chegariam ao YouTube em si.

“Consideramos muitas ideias para melhorar o YouTube e algumas permanecem apenas isso – ideias”, disse ela. “Outros, nós desenvolvemos e lançamos, como nossas restrições à transmissão ao vivo de menores ou política atualizada de discurso de ódio.”

Recomendações dos Editores

  • O YouTube torna mais fácil para novos criadores ganharem dinheiro
  • YouTube relaxa regras sobre palavrões e desmonetização
  • O YouTube está lançando identificadores. Aqui está o que você precisa saber
  • YouTube reformulará nomes de canais com identificadores @ para todos
  • Pesquisas por temas de saúde no YouTube agora destacam histórias pessoais

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.