Noticias Falsas: Los Peligros del DeepFake
Las herramientas tecnológicas avanzan y, sin remediar, muchos las usan para hacer daño. Tal es el caso del DeepFake, formado por las palabras fake (falsificación) y Deep learning (aprendizaje profundo), que surge de la inteligencia artificial, pero con peligrosas consecuencias.
Es sinónimo de falsificaciones, perjuicios a la imagen o estafas; un perfecto fenómeno que pone en riesgo la veracidad de la red. Expertos aseguran que el DeepFake es fuente de manipulaciones y noticias falsas, mientras que la Oficina de Seguridad del Internauta (OSI) alerta sobre los peligros que acechan.
Las trampas se hacen manipulando un vídeo y audio de manera que el receptor crea que está delante de la fuente original. El realismo que se puede alcanzar es impactante. La tecnología Deepfake ha ido evolucionando hasta convertirse, según algunos expertos, en una de las formas de fraude y desinformación más difíciles de reconocer hoy en día.
DeepFake: algunas consideraciones
A través de redes sociales y/o mensajería instantánea se logran reenvíos incontrolados de bulos, cuya viralidad provoca una verdadera pandemia del miedo. La manipulación de vídeos y audios empezó como una broma en 2017, cuando alguien con nombre de usuario ‘Deepfake’ publicó un vídeo falso en la web.
Después se bautizó con este mismo término a las grabaciones pornográficas donde aparecía la cara de algún famoso o actriz de Hollywood, cuyo objetivo era atacar su reputación. Luego, saltaron al cine y al terreno político, sobre todo en época electoral.
¿Qué es el DeepFake?
Se basa en una técnica de síntesis de una imagen humana basada en la inteligencia artificial, capaz de adaptar, en formato vídeo, el rostro de una persona en la cara de otra y modificar su voz. De esta manera,quien lleva a cabo esta práctica, hace creer a los usuarios que una persona anónima o personaje público realiza declaraciones o acciones que nunca ha hecho.
Para conseguir estos resultados utiliza redes neuronales que interpretan la fotografía, la convierte en una imagen abstracta y traduce a otra fotografía. Es un proceso que se repite cientos de miles de veces y que se mejora con el uso; es decir, se deconstruye y construye constantemente.
Diferentes tipos de DeepFake
La Oficina de Seguridad del Internauta clasifica dos tipos:
- Deepface: a través de la manipulación, se superpone el rostro de una persona en el de otra y falsifica sus gestos. A veces, el resultado es tan realista que resulta difícil identificar.
- Deepvoice: se trata de unir frases y palabras utilizadas por una persona para crear un discurso. En ocasiones, es capaz de clonar la voz original.
El Instituto Nacional de Ciberseguridad (INCIBE) cree que si el fake news supone un peligro, los DeepFakes son una amenaza para la sociedad actual. ‘Cada vez cuesta más identificar y golpear directamente sobre la credibilidad o reputación de una persona’, explica el Instituto en su portal web.
¿Cómo se hace un DeepFake?
Para quienes se han dedicado a los DeepFake, realizarlos es muy sencillo. Ellos usan la tecnología o aplicaciones que tienen las mismas características y resultados. Una vez que tienen el software en poder, recopilan videos de la persona objetivo, los cargan en el programa y listo, la inteligencia artificial hace el resto.
Los programas de DeepFake trabajan cada video como si se tratara de una fotografía y extraen cuadro por cuadro. De manera que entre más vídeos usan, es decir, mientras más información le den a la inteligencia artificial, el resultado parecerá más real.
Los peligros de los DeepFakes
Los perjuicios que causa esta tecnología son innumerables, pero los más conocidos están relacionados a delitos de fraude, suplantación de identidad, falsificación de pruebas, daño a la imagen, noticias falsas, entre otros.
Actrices como Wonder Woman y Gal Gadot fueron de las primeras afectadas por esta práctica. Sus imágenes las incluyeron en un vídeo pornográfico haciendo caer a millones de personas que se trataba realmente de ellas, cuando no fue así.
El expresidente de los Estados Unidos, Barack Obama y el actual mandatario Donald Trump ya han visto cómo se manipulan sus discursos sin compasión y se emiten mensajes contradictorios.Esto, dentro de un proceso electoral puede ser fatal para los intereses de un político. Una muestra más de que la ciberseguridad y la protección de datos, en un entorno como Internet, es cada vez más necesaria.
Una evolución de las Fake News
Rodolfo Tesone, especialista en Derecho Digital del Colegio de Abogados de Barcelona, pone un ejemplo para entender la peligrosidad del DeepFake: ‘Imagínate que mañana te llega un vídeo con la cara del presidente del Gobierno diciendo que el confinamiento ya finalizó (…) sería muy creíble y peligroso; juegan con nuestros sentimientos’, explica a medios españoles.
Tesone cree que los DeepFakes son la evolución de las Fake News y que tanto unas, como otras, pretenden intoxicar a las personas. Este experto considera que la información es un servicio público y debe ser veraz, rigurosa y emitida por medios solventes y acreditados. Cree que hay que concienciar a la opinión pública para que desconfíe de las fuentes que no sean fiables.
¿Cómo detectar los DeepFakes?
INCIBE recomienda aplicar el sentido común y seguir estos criterios para poderlos identificar:
- Buscar lo que no tenga sentido.
- Revisa las imágenes, los audios, rostro, gestos y cualquier cosa que no cuadre, como por ejemplo el parpadeo. En este tipo de falsificaciones los personajes suelen parpadear poco y en períodos relativamente largos, cuando el parpadeo humano es constante.
- Si el contenido del vídeo es muy alarmante, llamativo, mantente alerta y desconfía.
Debido al trabajo de edición, estos vídeos suelen ser cortos.
La suplantación de identidad
Algunos usuarios hicieron uso de un software para poner el rostro de actrices de Hollywood en videos pornos. Desde que ocurrió esto, hace un par de años, se han perfeccionado las herramientas para que la generación de estos videos suplanten la identidad y parezcan reales. A partir de ahí, empezó a extenderse su uso, igualando gestos para hacerle creer a quien lo ve que quien sale en el video es la persona en cuestión. Para detener el avance del DeepFake, en Estados Unidos se comenzó a penalizar la distribución de imágenes y videos pornográficos falsos, desde julio de 2019.
También, Facebook, Twitter y Google están tomando cartas en el asunto para poner freno a este tipo de contenidos multimedia falsos. Sin embargo, cada vez más hay videos de este tipo que no tienen contenido sexual, sino que suplantan identidades de personas famosas diciendo o haciendo cosas que jamás harían.
Según algunos estudios, se prevé que en el año 2022 se consuman más noticias falsas que reales, así que será imprescindible ponerse manos a la obra y evitar que la desinformación ponga en peligro la verdad.
Conclusión: ¿Por qué debería preocuparnos?
Según el diario TheEconomist, el uso de la tecnología para generar variaciones en algunas escenas icónicas del cine, ha traído copnsecuencias. Por ejemplo, la del actor JimCarrey (TheMask) ‘suplantando’ a Jack Nicholson en tres videos de la película TheShining.
Por su parte, Jordan Peele, director de la película GetOut, fue uno de los primeros en alertar sobre las consecuencias de manipular cualquier imagen para confundir a la audiencia. ‘Estamos en una era en la que nuestros enemigos pueden hacer parecer que cualquier persona dice cualquier cosa en cualquier momento. Este es un momento peligroso’, dijo Peele en un video que circuló por las redes.
Otras manipulaciones publicadas incluyen al mandatario de Rusia, Vladimir Putin, al presidente ejecutivo de Facebook Mark Zuckerberg, y a la política Nancy Pelosi, aparentemente en estado de embriaguez. Según TheEconomist, todavía se puede buscar las imágenes verdaderas en Internet para compararlas con los DeepFakes.
Sin embargo, añade que al ritmo que se está desarrollando la tecnología, en poco tiempo se podrán generar contenidos propios, sin la necesidad de una imagen previa, lo que dificultará saber si un video es real o no.
Por último, las consecuencias no sólo pueden pensarse en términos masivos, también en círculos más pequeños, como el riesgo para hacer bullying o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando a placer cualquier físico.