Deepfake es un video o grabación de audio manipulado que parece auténtico pero que en realidad ha sido creado o alterado utilizando técnicas avanzadas de Inteligencia Artificial (IA), especialmente algoritmos de aprendizaje profundo. Estas técnicas pueden superponer imágenes o grabaciones existentes sobre otro contenido, lo que permite la creación de medios convincentes pero totalmente falsificados.

Actualmente el deepfake ha generado preocupaciones sobre su potencial para propagar desinformación, manipular la opinión pública y socavar la confianza en pruebas visuales y auditivas.

Luego de que Buzzfeed publicara en 2018 un video donde, utilizando el deepfake se vio al ahora expresidente de los Estados Unidos Barack Obama, con la voz del actor y comediante Jordan Peel, “dando una declaración” y que este se hiciera viral (9,8 millones de reproducciones en YouTube1), se disparó la creación y utilización de esta tecnología en los últimos años, generando una espiral de desinformación, desprotección de datos e incertidumbre sobre la información que día a día consumimos.

Y si bien esta “nueva” tecnología es utilizada primordialmente para crear parodias, memes o videos divertidos, también se está utilizando para fines porco decorosos y que plantean unos retos éticos y regulatorios importantes, principalmente frente a la protección de datos y la reputación tanto de figuras públicas como del ciudadano común y corriente.

Ejemplo del uso indebido de esta tecnología se refleja en el informe “State of Deepfakes” (2023)2 de Home Security Heroes, organización de seguridad en línea, mencionando que toma menos de 25 minutos y ningún costo generar un video pornográfico falso de 60 segundos de una persona cualquiera, solamente se necesita una imagen clara de la persona. Asimismo, el estudio reveló que en 2023 se encontraron 95.820 videos deepfake en internet, lo cual representa un aumento del 550% con respecto a la cantidad encontrada en 2019.

Pero el deepfake no solo se está utilizando para la creación de videos para adultos, sino también para falsificación y robo de identidad, que representan un riesgo significativo tanto para individuos como para empresas. De acuerdo a Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub (proveedor de verificación de identidad), los intentos de fraude a través de IA podría extenderse a otras áreas: “hemos visto cómo las falsificaciones profundas se han vuelto cada vez más convincentes en los últimos años y esto no hará más que continuar y ramificarse hacia nuevos tipos de fraude, como se ha visto con los deepfakes de voz”.

Y es que en el “Informe sobre Fraude de Identidad” (2023)3 de Sumsub el fraude impulsado por IA puntea la lista de tipos de fraude cometido durante 2023, superando el fraude por lavado de dinero, identificaciones falsas, toma de cuentas y verificación forzada.

El estudio también revela alarmantes cifras frente al deepfake en todo el mundo, siendo que entre 2022 y 2023, el número de deepfakes detectados en todo el mundo se multiplicó por 10 en todos los sectores, con notables diferencias regionales: aumentó en un 1740% de deepfakes en Norteamérica, 1530% en Asia-PAcífico, 780% en Europa (inc. Reino Unido) y 410% en América Latina. Los resultados también se pueden consultar en la siguiente infografía.

Otro rubro importante donde la suplantación o creación de contenidos audiovisuales a través e IA ha tomado mucha relevancia y se ha vuelto preocupante es en el ámbito electoral.

En 2024 se espera que el 51% de la población mundial participe en procesos democráticos, motivo más que suficiente para que el deepfake sea puesto en marcha para manipular procesos electorales a favor de un candidato o partido. Esta situación la sufrió la periodista Monika Todová4, quien dos días antes de los comicios eslovacos de 2023 fue víctima de un audio deepfake donde presuntamente ella y el líder del Partido Progresista Eslovaco realizaron fraude electoral. El audio circuló por las redes sociales alimentando la desinformación prorrusa que actualmente prolifera en Eslovaquia, vulnerando también el oficio periodístico de Todová e incluso generando ataques de odio hacia ella.

De acuerdo al “Análisis General: El periodismo, bajo las presiones políticas”5 de Periodistas Sin Fronteras, este nuevo fenómeno de videos, audios o incluso fotos creadas o manipuladas por IA en años electorales (2023 y 2024), que además no cuentan con una regulación clara frente a la suplantación de identidad o desinformación, convierte al deepfake en una “herramienta de primer orden para influir en el curso de las elecciones”.

Cartas, pactos y acciones contra los deepfakes

Más de 1000 expertos en IA firmaron una carta (Disrupting the Deepfake Supply Chain6) abierta la cual exige a los gobiernos de todo el mundo tomar acción con medidas urgentes y contundentes frente al deepfake.

“Las falsificaciones profundas son una amenaza creciente para la sociedad y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación”, reza la carta. Asimismo, esta pide medidas legales y contundentes contra la pornografía infantil producida por IA, sanciones penales para todo aquel que cree o facilite la difusión de deepfakes perjudiciales y reglamentar la distribución de software, impidiendo que sus productos audiovisuales creen deepfakes, y que sean considerados responsables si sus medidas preventivas se eluden con demasiada facilidad.

Frente a esta petición y teniendo en cuenta el contexto electoral de 2024, empresas como Google, Meta, OpenAI y Microsoft llegaron a un pacto conocido como el Acuerdo Tecnológico, el cual tiene como objetivo contrarrestar la difusión de contenido generado por IA que podría poner en peligro la integridad de los procesos electorales. El anuncio de este pacto tuvo lugar durante la Conferencia de Seguridad de Múnich (MSC por sus siglas en inglés).

Este Acuerdo ha derivado en la creación de herramientas por parte de estos colosos de la industria que alertará a los usuarios, casi con exactitud, cuando un contenido haya sido creado o manipulado por IA.

La línea de ayuda de Whatsapp7 en India que permitirá a las personas denunciar los contenidos manipulados con ayuda de IA directamente a través de la aplicación o la herramienta para detectar deepfakes con el 98.8% de eficacia8 que Open AI anunció y que está diseñada para detectar el contenido a partir de su IA generativa DALL-E que identificará las imágenes creadas por DALL-E 3 (versión más actualizada del generador de imágenes de esta compañía) son solo algunas primeras acciones contra el fenómeno del deepfake.

La colaboración entre estas empresas, así como las primeras acciones tomadas contra los problemas que aqueja el planeta debido al deepfake, son la muestra de un compromiso conjunto de salvaguardar la integridad de la democracia y defender los principios de privacidad y veracidad de la información.

Sin embargo, se requieren la implementación de herramientas y estrategias avanzadas para identificar y evitar el abuso de la IA, así como políticas regulatorias más estrictas y claras frente al uso de la Inteligencia Artificial y la creación de contenido audiovisual.

Notas

1 Acceso al video deepfake de Barack Obama.
2 Acceso al informe “State of Deepfakes” (2023) de Home Security Heroes.
3 Link al “Informe sobre Fraude de Identidad” (2023) publicado por Sumsub.
4 Para ampliar sobre lo que sufrió la periodista Monika Todová, ingrese al siguiente video.
5 Enlace al “Análisis General: El periodismo, bajo las presiones políticas” publicado por Periodistas sin Fronteras.
6 Texto complete de la carta Disrupting the Deepfake Supply Chain.
7 Sobre la línea de ayuda de Whatsapp.
8 Acceso a la herramienta para detectar deepfakes con el 98.8% de eficacia de OpenAI.