En un vídeo publicado recientemente, lo que parece ser un tenso Brett Kavanaugh habla ante miembros del Congreso de los Estados Unidos. “Es hora de dejar las cosas claras”, comienza. En los próximos minutos, el magistrado de la Corte Suprema admite que es posible que haya cometido agresión sexual y expresa remordimiento por la forma en que respondió a las acusaciones de Christine Blasey Ford en su testimonio. "Por eso asumo la responsabilidad y pido disculpas".
La cuestión es que esta escena no es real. Las imágenes están manipuladas y Kavanaugh nunca dijo esas cosas.
Contenido
- Hazlo deepfake hasta que lo logres
- Más que memes y desinformación
- Inclinar la balanza
¿Qué pasaría si Brett Kavanaugh tuviera un ajuste de cuentas? | Lonchera infinita
En realidad, Kavanaugh negó e ignoró los cargos y se hizo la víctima. El vídeo descrito anteriormente pertenece a una serie de clips falsificados que visualizan un futuro en el que el público divisivo figuras como Kavanaugh, Alex Jones y Mark Zuckerberg asumen la responsabilidad de su pasado transgresiones.
Vídeos recomendados
La serie, titulada Ajustes de cuentas profundos, es una creación de Stephanie Lepp, una artista que tiene como objetivo provocar un cambio positivo en el mundo aprovechando la tecnología deepfake para ayudar a las personas a ver e imaginar mejores versiones de sí mismas.
Es un proyecto elevado y algo abstracto, pero Lepp no está sola en sus esfuerzos. Ella es parte de una liga cada vez mayor de creadores que pretenden utilizar la tecnología deepfake para hacer el bien.
Hazlo deepfake hasta que lo logres
Los deepfakes han tenido un recorrido controvertido hasta ahora. La tecnología se ha utilizado ampliamente con fines nefastos como la creación de pornografía y campañas de desinformación. lo que lo ha puesto bajo un intenso escrutinio tanto por parte de los gobiernos como de las empresas de tecnología que temen el impacto de la tecnología. armamentismo.
"Dado que la inmensa mayoría de los deepfakes son de naturaleza nefasta, es comprensible que nos hayamos centrado en convertirlos en armas", dice Lepp. “Pero este enfoque nos ha impedido realizar su potencial prosocial. Específicamente, los deepfakes se pueden utilizar con fines educativos, sanitarios y de cambio social”.
Ella sostiene que, de manera similar a cómo se ha utilizado la realidad virtual para ayudar a los pacientes a recuperarse de lesiones cerebrales mediante Al permitirles interactuar con recuerdos virtuales, los deepfakes se pueden emplear para la curación psicológica en caso de trauma. víctimas. Por ejemplo, imaginemos un escenario en el que los médicos pudieran crear falsificaciones del futuro sobrio de un adicto y utilizarlas para animarle a seguir el camino de la recuperación.
El concepto, al menos en teoría, es sólido. Jonathan Gratch, director de investigación humana virtual del Instituto de Tecnologías Creativas de la Universidad del Sur de California, ha descubierto que verse a uno mismo en realidad virtual puede ser muy motivador y que el mismo concepto podría aplicarse fácilmente a los deepfake. imágenes. Sugiere que si el rostro de un paciente se mezclara sutilmente con el rostro de su médico, sería más probable que el paciente siguiera el consejo del médico.
Más que memes y desinformación
A pesar de que las aplicaciones negativas de deepfakes tienden a recibir más atención, las aplicaciones positivas como la de Lepp van en aumento. En los últimos dos años, la tecnología ha aparecido en los campos de la narración de historias, proyectos prosociales y más.
Proyecto Revoice: Ayudando al fundador de Ice Bucket Challenge a recuperar su voz de la ELA
La Asociación ALS Revoz del proyecto, por ejemplo, permite a los pacientes con esclerosis lateral amiotrófica que han perdido la capacidad de hablar seguir usando su voz. ¿Cómo? Utilizando deepfakes para crear pistas vocales sintéticas personalizadas que se pueden reproducir a pedido con una caja de resonancia.
En un proyecto independiente de la organización antipalúdica sin fines de lucro La malaria debe morir, El famoso atleta David Beckham entregó un mensaje en nueve idiomas (y voces) diferentes gracias a un audio y un video deepfake que hacía que sus labios coincidieran con las palabras.
David Beckham habla nueve idiomas para lanzar la petición de voz Malaria Must Die
En una campaña particularmente llamativa de principios de 2020, el Centro de Virtualidad Avanzada del Instituto de Tecnología de Massachusetts intentó educar al público sobre la desinformación produciendo un deepfake del ex presidente estadounidense Richard M. Nixon pronunció el discurso de contingencia escrito en 1969 en caso de que la tripulación del Apolo 11 no pudiera regresar de la luna.
Este tipo de anuncios de servicio público y campañas de concientización son sólo la punta del iceberg. Las herramientas deepfake también han ayudado a simplificar procesos en la industria del entretenimiento que de otro modo Exigen equipos de alta gama y recursos que consumen mucho tiempo, como rejuvenecimiento, clonación de voz y mucho más. más. Cada rostro en un vídeo musical reciente de The Strokes era falso, por ejemplo, de modo que los miembros de la banda, de aproximadamente 40 años, parecían tener 20.
Ohad Fried, profesor titular de informática en el Centro Interdisciplinario Herzliya de Israel, dice que Gracias a los deepfakes, “lo que antes tomaba años de tiempo para los artistas, ahora puede lograrse mediante pequeños proyectos independientes. estudios. Esta siempre es una buena noticia para la diversidad y la calidad de los medios que consumimos”.
Inclinar la balanza
Sin embargo, El potencial de la tecnología deepfake para causar daño (especialmente a medida que se vuelve más accesible) sigue siendo una preocupación. Aviv Ovadya, fundador del Thoughtful Technology Project, coincide en que la capacidad de crear medios sintéticos puede tener “numerosos beneficios”. impactos, para contar historias, para personas con discapacidades y al permitir una comunicación más fluida entre idiomas”. Pero al mismo tiempo, Advierte que todavía hay mucho margen de daño cuando la tecnología se generalice y que es necesario hacer mucho trabajo para minimizarlos. riesgos.
"Incluso estos casos de uso positivos pueden provocar involuntariamente un daño real y significativo", dijo a Digital Trends. "Los extractos de obras de arte que intentan crear empatía también pueden sacarse de contexto y usarse indebidamente".
"El objetivo debería ser desarrollar esta tecnología de una manera que mitigue esos impactos negativos tanto como sea posible".
Los expertos han pedido repetidamente que se canalicen más recursos hacia programas de detección y directrices éticas oficiales, aunque la intervención legal podría terminar obstaculizando la libertad de expresión. Pero nadie está seguro todavía de qué dirección tomarán en última instancia los deepfakes. Como cualquier tecnología emergente, llegará un punto en el que los deepfakes alcanzarán un equilibrio y la responsabilidad Recaerá en las empresas de tecnología, los formuladores de políticas y los creadores garantizar que la balanza se mantenga inclinada hacia el lado bueno.
Ovadya también sugiere limitar el acceso de las masas a las herramientas deepfake hasta que los investigadores puedan “completar algunas de las fortificaciones que necesitamos para proteger nuestra sociedad de los posibles efectos negativos. impactos. El objetivo debería ser desarrollar esta tecnología de una manera que, como mínimo, mitigue esos impactos negativos tanto como sea posible”.
Por ahora, sin embargo, Lepp dedicará su tiempo a centrarse en su próximo protagonista deepfake: Donald Trump y su discurso de concesión.
Recomendaciones de los editores
- Premios Tech For Change CES 2023 de Digital Trends
- Toque final: cómo los científicos están dando a los robots sentidos táctiles similares a los humanos
- La nueva batería de IBM puede superar a la de iones de litio y no utiliza minerales conflictivos
- Esperando entre bastidores: cómo los drones están revolucionando la batalla contra el hambre
- ¿Stallone en Terminator 2? Cómo un bromista deepfake está cambiando la historia del cine