Em um vídeo lançado recentemente, o que parece ser um tenso Brett Kavanaugh fala diante de membros do Congresso dos Estados Unidos. “É hora de esclarecer as coisas”, ele começa. Nos minutos seguintes, o juiz da Suprema Corte admite que é possível que ele tenha cometido agressão sexual e expressa remorso pela forma como respondeu às acusações de Christine Blasey Ford em seu testemunho. “Por isso, assumo a responsabilidade e peço desculpas.”
O problema é que essa cena não é real. A filmagem foi adulterada e Kavanaugh nunca disse essas coisas.
Conteúdo
- Deepfake até conseguir
- Mais do que memes e desinformação
- Derrubando a balança
E se Brett Kavanaugh tivesse um acerto de contas? | Marmita Infinita
Na realidade, Kavanaugh negou e desconsiderou as acusações e se fez de vítima. O vídeo descrito acima faz parte de uma série de clipes deepfaked que prevêem um futuro onde o público divisivo figuras como Kavanaugh, Alex Jones e Mark Zuckerberg assumem a responsabilidade por seu passado transgressões.
Vídeos recomendados
A série, intitulada Avaliações profundas, é ideia de Stephanie Lepp – uma artista que visa provocar mudanças positivas no mundo, aproveitando a tecnologia deepfake para ajudar as pessoas a ver e imaginar versões melhores de si mesmas.
É um projeto grandioso e um tanto abstrato, mas Lepp não está sozinho em seus esforços. Ela faz parte de uma liga crescente de criadores que pretendem usar tecnologia deepfake para fazer o bem.
Deepfake até conseguir
Deepfakes tiveram uma jornada controversa até agora. A tecnologia tem sido amplamente utilizada para fins nefastos, como criação de pornografia e campanhas de desinformação, o que o colocou sob forte escrutínio tanto de governos quanto de empresas de tecnologia que temem o impacto da tecnologia armamento.
“Dado que a esmagadora maioria dos deepfakes são de natureza nefasta, é compreensível que nos tenhamos concentrado na sua transformação em armas”, diz Lepp. “Mas esse foco nos impediu de realizar seu potencial pró-social. Especificamente, os deepfakes podem ser usados para fins de educação, saúde e mudança social.”
Ela argumenta que, semelhante à forma como a realidade virtual tem sido usada para ajudar os pacientes a se recuperarem de lesões cerebrais, permitindo que eles interajam com memórias virtuais, deepfakes podem ser empregados para cura psicológica em traumas vítimas. Por exemplo, imagine um cenário em que os médicos pudessem criar scripts falsos sobre o futuro sóbrio de um viciado e usar isso para encorajá-lo no caminho da recuperação.
O conceito, pelo menos em teoria, é sólido. Jonathan Gratch, diretor de pesquisa humana virtual do Instituto de Tecnologias Criativas da Universidade do Sul da Califórnia, descobriu que ver-se em VR pode ser altamente motivador e que o mesmo conceito pode ser facilmente aplicado a deepfake imagens de vídeo. Ele sugere que se o rosto de um paciente se misturasse sutilmente ao rosto do médico, seria mais provável que o paciente seguisse o conselho do médico.
Mais do que memes e desinformação
Apesar do fato de que aplicações negativas de deepfakes tendem a receber mais atenção, aplicações positivas como a de Lepp estão aumentando. Nos últimos dois anos, a tecnologia apareceu nas áreas de narração de histórias, projetos pró-sociais e muito mais.
Projeto Revoice: Ajudando o fundador do Ice Bucket Challenge a recuperar sua voz da ALS
A Associação ALS Nota Fiscal do Projeto, por exemplo, permite que pacientes com esclerose lateral amiotrófica que perderam a capacidade de falar continuem usando a voz. Como? Usando deepfakes para criar faixas vocais sintéticas personalizadas que podem ser reproduzidas sob demanda com uma mesa de som.
Num projecto separado da organização sem fins lucrativos antimalária A malária deve morrer, o famoso atleta David Beckham transmitiu uma mensagem em nove idiomas (e vozes) diferentes, graças ao áudio e vídeo falsificados que fizeram seus lábios combinarem com as palavras.
David Beckham fala nove idiomas para lançar a petição Malaria Must Die Voice
Numa campanha particularmente marcante do início de 2020, o Centro de Virtualidade Avançada do Instituto de Tecnologia de Massachusetts procurou educar o público sobre a desinformação, produzindo um deepfake do ex-presidente dos EUA Richard M. Nixon proferindo o discurso de contingência escrito em 1969, caso a tripulação da Apollo 11 não conseguisse retornar da lua.
Este tipo de anúncios de serviço público e campanhas de sensibilização são apenas a ponta do iceberg. As ferramentas Deepfake também ajudaram a simplificar processos na indústria do entretenimento que, de outra forma, exigem equipamentos de última geração e recursos demorados, como rejuvenescimento, clonagem de voz e muito mais mais. Cada rosto em um videoclipe recente do The Strokes era falso, por exemplo, de modo que os membros da banda com cerca de 40 anos pareciam ter 20.
Ohad Fried, professor sênior de ciência da computação no Centro Interdisciplinar de Israel em Herzliya, diz que graças aos deepfakes, “o que costumava levar anos do tempo do artista agora pode ser alcançado por pequenas empresas independentes estúdios. Esta é sempre uma boa notícia para a diversidade e a qualidade da mídia que consumimos.”
Derrubando a balança
No entanto, O potencial da tecnologia deepfake para causar danos – especialmente à medida que se torna mais acessível – continua a ser uma preocupação. Aviv Ovadya, fundador do Thoughtful Technology Project, concorda que a capacidade de criar mídia sintética pode ter “numerosos efeitos positivos”. impactos, para contar histórias, para pessoas com deficiência e permitindo uma comunicação mais contínua entre idiomas.” Mas ao mesmo tempo, ele alerta que ainda há muito espaço para danos quando a tecnologia se tornar popular e que há muito trabalho a ser feito para minimizá-los. riscos.
“Mesmo esses casos de uso positivos podem levar involuntariamente a danos reais e significativos”, disse ele à Digital Trends. “Trechos de peças de arte que tentam criar empatia também podem ser tirados do contexto e mal utilizados.”
“O objetivo deve ser construir esta tecnologia de uma forma que mitigue ao máximo esses impactos negativos.”
Os especialistas têm repetidamente tocado a buzina para canalizar mais recursos para programas de detecção e directrizes éticas oficiais – embora a intervenção legal possa acabar por dificultar a liberdade de expressão. Mas ninguém tem certeza ainda sobre qual direção os deepfakes irão tomar. Como qualquer tecnologia emergente, chegará um ponto em que os deepfakes alcançarão um equilíbrio e a responsabilidade recairá sobre as empresas de tecnologia, os legisladores e os criadores para garantir que a balança permaneça inclinada para o lado bom.
Ovadya também sugere limitar a acessibilidade das ferramentas deepfake para as massas até que os pesquisadores sejam capazes de “concluir algumas das fortificações que precisamos para proteger nossa sociedade do potencial negativo impactos. O objetivo deve ser construir esta tecnologia de uma forma que mitigue esses impactos negativos tanto quanto possível, no mínimo.”
Por enquanto, porém, Lepp passará seu tempo concentrando-se em seu próximo protagonista deepfake: Donald Trump e seu discurso de concessão.
Recomendações dos Editores
- Prêmio Tech For Change CES 2023 da Digital Trends
- Toque final: como os cientistas estão dando aos robôs sentidos táteis semelhantes aos humanos
- A nova bateria da IBM pode superar o íon de lítio e não usa minerais de conflito
- Esperando nos bastidores: como os drones estão revolucionando a batalha contra a fome
- Stallone em O Exterminador do Futuro 2? Como um brincalhão deepfake está mudando a história do cinema