Deepfakes, sus riesgos y beneficios

El avance de la tecnología ha tenido un crecimiento exponencial durante los últimos años, siendo capaz de ofrecernos herramientas poderosas como la inteligencia artificial, el análisis de datos, la mejora del software, tanto para atacar problemas del cambio climático, para ofrecer mejor calidad en videojuegos o películas y hasta increíbles aplicaciones para el ocio. 

Sin embargo, estas tecnologías son tan nobles que pueden ser utilizadas para mejorar la calidad de vida del ser humano o para fines totalmente opuestos, como el crimen organizado, pornografía, entre muchas otras cosas. 

Las aplicaciones de cámara son cada vez más sofisticadas, ofreciendo a los usuarios unas posibilidades prácticamente infinitas de modificaciones y filtros. Se pueden quitar imperfecciones, reducir kilos de las fotos, o crear videos falsos que se ven absolutamente reales. 

Los deepfakes se refieren a videos manipulados utilizando inteligencia artificial que crean imágenes y audio tan realistas que podrían engañar a cualquiera. Este contenido es creado por poderosas computadores y software de aprendizaje automático, el término viene de la combinación de “deep learning” (aprendizaje profundo) y “fake” (falso). Lo anterior permite a cualquiera manipular videos existentes o fabricar a partir de vídeo y audio digital, mostrando a la gente haciendo y diciendo cosas que nunca hicieron o dijeron.

Esta tecnología está disponible para todos, y este vertiginoso ritmo de desarrollo hace casi imposible mantener las regulaciones y leyes al día, con lo cual se abre la puerta para el uso indebido de las tecnologías. El peligro recae en que puede incriminar a cualquiera de algo y hacer una “prueba” muy realista al respecto. 

Por ejemplo, se han usado para crear videos pornográficos utilizando los rostros de artistas famosas como Emma Watson, Gal Gadot y Taylor Swift. Estos han causado un gran revuelo sobre los deepfakes, al igual que videos muy realistas de Barack Obama y Donald Trump así como de otros funcionarios públicos en Estados Unidos.

 “Son una nueva y poderosa herramienta para aquellos que quieran (usar) información errónea para influir en una elección. Estas falsificaciones están planteando un conjunto de desafiantes problemas políticos, tecnológicos y legales”, dijo John Villaseñor, investigador principal de estudios de gobernabilidad en el Centro para la Innovación Tecnológica en la organización de políticas públicas con sede en Washington.

La preocupación actual es que estos videos puedan ser creados para manipular las elecciones presidenciales del 2020:

“Sería una gran cantidad de dinero tener un deepfake de uno de los candidatos demócratas haciendo y diciendo algo que no podrían desacreditar, que podría [utilizar para] inclinar la elección en la víspera de la elección.” (Citron, 2019)  

Sin embargo, muchos argumentan que no son los políticos o artistas los más vulnerables, ya que ellos cuentan con los recursos para defenderse, sino las minorías como las mujeres, personas de la comunidad LGBT+, entre muchos otros que fácilmente pueden convertirse en víctimas de alguna pareja vengativa que publique un deepfake porno utilizando su rostro. Las únicas cosas que necesitaría son unas cuantas fotos, fácilmente accesibles a través de sus redes sociales y un video en donde la persona salga por varios minutos.  Realmente estas personas estarían prácticamente indefensas ante esa amenaza.

¿Qué podemos hacer al respecto? 

En Europa, la implementación del Reglamento general de protección de datos incluye dos herramientas: el derecho a solicitar la eliminación de datos y el derecho al olvido.

Luke Patel, un especialista en derecho a la intimidad, cree que podrían ayudar “a permitir que un individuo solicite la eliminación o eliminación permanente de sus datos personales (incluyendo imágenes) cuando no hay una buena razón para su publicación continua”, aunque cada caso se decidirá de forma individual. 

“No es un derecho absoluto, pero el caso es más sólido si la imagen no está justificada y causa un sufrimiento considerable”. Aunque, continúa, “todavía son solo herramientas que pueden desplegarse cuando el daño ya está hecho”. No impedirán que suceda.

Por ejemplo, en EUA existe un proyecto de ley que plantea obligar a compañías e investigadores a crear herramientas de deepfakes que agreguen una marca de agua a las creaciones manipuladas. De igual manera, requerirá a las grandes compañías de Redes Sociales que se empleen mejores herramientas para la detección de contenido falso en sus plataformas y finalmente, pretende sancionar con multas o penas de cárcel a todos aquellos responsables de usar o crear los deepfakes para dañar a personas concretas o que pongan en riesgo la seguridad nacional. 

De igual manera se están estudiando más a fondo las implicaciones de los deepfakes en las áreas de ética digital en el Instituto Alan Turing para la IA, en la Alianza del Instituto Hariri para la Seguridad Cibernética, la Ley y la Sociedad, entre muchos otros. Haciendo propuestas sobre cómo abordar la problemática. 

Algunos investigadores recalcan que no todo sobre esta tecnología es malo, sino que representa un avance enorme ya que la tecnología de AI que se usa para hacer los deepfakes más realistas llamada generative adverarial networks (GANs) puede ser también de gran utilidad para la ciencia.

Deepfakes utiliza estas GANs en las que dos modelos de aprendizaje automático (Machine Learning) se enfrentan. Un modelo de ML se entrena en un conjunto de datos y luego crea falsificaciones de video, mientras que el otro intenta detectar las falsificaciones. El falsificador crea falsificaciones hasta que el otro modelo ML no puede detectar la falsificación. Cuanto mayor sea el conjunto de datos de entrenamiento, más fácil será para el falsificador crear una falsificación creíble. 

Christina Hitrova, investigadora de ética digital en el Instituto Alan Turing, explica que los GANs tienen muchos usos interesantes – no son sólo para crear deepfakes:

“Los científicos también están explorando su uso para crear moléculas químicas virtuales”, dice Hitrova, “para acelerar la ciencia de los materiales y los descubrimientos médicos: se pueden generar nuevas moléculas y simularlas para ver lo que pueden hacer”. Los GAN’s se inventaron recién en 2014, pero ya se han convertido en una de las herramientas más emocionantes de la IA.

Por otro lado, algunos cineastas han utilizado los deepfakes como alternativa a las imágenes generadas por computadora (CGI) debido a sus altos costos. En la última película de Star Wars, por ejemplo, se utilizaron para poner el rostro de la actriz Carrie Fisher, quien había fallecido antes de terminar el rodaje, sobre el cuerpo de una doble y poder terminar las escenas restantes. 

Aunque todavía es incierto lo que nos depara el futuro, lo que sí está sucediendo, además del ritmo de crecimiento acelerado que tienen las tecnologías, es que poco a poco vayamos confiando menos en las cosas que vemos en internet pues se ha cambiado la manera en la que percibimos la verdad y la mentira. 

Cuando se hace casi imposible diferenciar la realidad de lo falso, ¿qué es lo que nos queda? “Desconfiar de todo”, dirían algunos, pero los impactos sociales y psicológicos que esto puede llegar a tener son enormes.