¿Qué son los deepfakes?

Comprender los deepfakes: Conozca el proceso de creación, reconozca sus riesgos y descubra cómo protegerse contra ellos, garantizando la seguridad de su identidad e información digitales.

Dark Web Escanear

Durante muchas décadas, los cineastas han intentado cambiar o mejorar la biología humana con maquillaje, prótesis y dobles de cuerpo para que sus escenas parecieran más auténticas. Pero hasta que llegó la tecnología moderna de efectos visuales (VFX), los resultados eran desiguales. Desde películas como El irlandés y Capitana Marvel hasta Vengadores: Endgame, los VFX permiten a los intérpretes superar imposibilidades físicas. A veces, los VFX de Hollywood permiten a los cineastas fusionar el rostro de los actores con los cuerpos de otros intérpretes para papeles para los que no están preparados o no son capaces de interpretar.  

Pero, como se puede imaginar, la tecnología VFX moderna de Hollywood es un trabajo caro, delicado y minucioso. Evidentemente, no todo el mundo tiene un presupuesto de unos cientos de millones de dólares para contratar un estudio de VFX. Aquí es donde entra en escena la tecnología deepfake.

¿Qué es un deepfake? Una definición

Un "deepfake" se refiere a medios recreados de la apariencia y/o voz de una persona por un tipo de inteligencia artificial llamada aprendizaje profundo (de ahí el nombre, deepfake). Un usuario de Reddit que compartía deepfakes en el sitio acuñó el término en 2017.

Los deepfakes suelen ser imágenes, vídeos o grabaciones de audio falsas. Es posible que hayas visto vídeos populares de famosos o políticos diciendo algo que es poco probable que digan en la vida real. Estos son ejemplos comunes de deepfakes. La aparición de vídeos deepfake suscita preocupación por la posibilidad de un "dividendo del mentiroso", en el que prolifere la desinformación, minando la confianza y distorsionando la realidad.

¿Cómo funcionan los deepfakes?

La tecnología Deepfake aprovecha la sofisticada inteligencia artificial a través de redes generativas adversariales (GAN), que comprenden dos algoritmos críticos: el generador y el discriminador. El generador inicia el proceso creando el contenido falso inicial basado en un resultado deseado, utilizando un conjunto de datos de entrenamiento. Por su parte, el discriminador evalúa la autenticidad del contenido y señala las áreas de mejora. Este proceso iterativo permite al generador mejorar su capacidad de producir contenidos cada vez más realistas, mientras que el discriminador mejora en la identificación de discrepancias para su corrección.

Los GAN desempeñan un papel fundamental en la creación de deepfakes, ya que analizan los patrones de las imágenes auténticas para replicarlos en los contenidos fabricados. En el caso de las fotografías, los sistemas GAN examinan múltiples ángulos de las imágenes del objetivo para captar todos los detalles. En el caso de los vídeos, no sólo analizan los ángulos, sino también el comportamiento, el movimiento y los patrones de habla. Este análisis multifacético se somete a numerosas iteraciones a través del discriminador para refinar el realismo del producto final.

Los vídeos deepfake surgen a través de dos métodos principales: la manipulación de un vídeo original para alterar lo que el objetivo dice o hace (vídeo fuente deepfake) o el intercambio de la cara del objetivo en el cuerpo de otra persona (intercambio de caras). Las falsificaciones de vídeo de origen implican un autocodificador basado en una red neuronal que disecciona el vídeo para comprender y luego superponer las expresiones faciales y el lenguaje corporal del objetivo en la grabación original. Para el audio, un proceso similar clona la voz de una persona, lo que permite replicar cualquier discurso deseado.

Las técnicas clave en la creación de deepfakes incluyen:

  • Vídeo fuente deepfakes: Utiliza un autocodificador con un codificador para analizar atributos y un decodificador para aplicar estos atributos al vídeo de destino.
  • Deepfakes de audio: Emplea GAN para clonar patrones vocales, lo que permite crear réplicas de voz realistas.
  • Sincronización labial: Hace coincidir las grabaciones de voz con el vídeo, mejorando la ilusión de que el sujeto habla las palabras grabadas, con el apoyo adicional de redes neuronales recurrentes para un mayor realismo.

La creación de deepfakes se ve facilitada por tecnologías avanzadas como las redes neuronales convolucionales (CNN) para el reconocimiento facial, los autocodificadores para la asignación de atributos, el procesamiento del lenguaje natural (PLN) para generar audio sintético y la potencia de cálculo que proporcionan los sistemas informáticos de alto rendimiento. Herramientas como Deep Art Effects, Deepswap y FaceApp ejemplifican la accesibilidad de la generación de deepfakes, apuntando a un futuro en el que la creación de deepfakes convincentes esté al alcance de muchos.

¿Son legales los deepfakes?

En esencia, los deepfakes no son intrínsecamente ilegales; la legalidad depende en gran medida de su contenido e intención. Esta tecnología innovadora puede entrar en territorio ilegal si infringe las leyes vigentes sobre pornografía infantil, difamación, incitación al odio u otras actividades delictivas.

Hasta la fecha, existen pocas leyes dirigidas específicamente a los deepfakes y varían significativamente de un país a otro. Sin embargo, la proliferación de la tecnología deepfake suscita preocupación por la propagación de afirmaciones falsas y su impacto en la confianza y el discurso públicos. Ya hay excepciones notables en Estados Unidos, donde algunos estados han tomado medidas para frenar los efectos nocivos de la tecnología deepfake:

  • Texas: Este estado ha promulgado legislación que prohíbe la creación y distribución de deepfakes con la intención de interferir en las elecciones. Esta medida pretende salvaguardar la integridad del proceso electoral impidiendo la difusión de información engañosa o falsa sobre los candidatos a través de vídeos o grabaciones de audio falsos hiperrealistas. Además, Texas ha aprobado una ley específica contra los deepfakes sexualmente explícitos distribuidos sin el consentimiento del sujeto, con el fin de proteger a las personas de la angustia o la vergüenza causadas por tales contenidos. Ambos delitos se consideran faltas de clase A, con penas de hasta un año de cárcel y multas de hasta 4.000 dólares.
  • Virginia: Reconociendo el daño personal y social causado por la pornografía deepfake, Virginia ha prohibido específicamente la difusión de tales contenidos. Esta ley se centra en los deepfakes que explotan sexualmente a las personas sin su consentimiento, ofreciendo a las víctimas una vía legal para buscar justicia. La difusión de pornografía vengativa, incluida la pornografía deepfake, está tipificada como delito menor de clase 1, punible con hasta 12 meses de cárcel y una multa de hasta 2.500 dólares.
  • California: Con la vista puesta tanto en las ramificaciones políticas como personales de los deepfakes, California ha aprobado leyes contra el uso de deepfakes que pretendan engañar a los votantes en los 60 días previos a unas elecciones. Además, el estado ha declarado ilegal la creación y distribución no consentida de pornografía deepfake, lo que refleja una creciente preocupación por el uso de esta tecnología para dañar la privacidad y la dignidad de las personas.

El mosaico de normativas pone de relieve un problema más amplio: muchas personas siguen sin conocer la tecnología de deepfake, sus posibles aplicaciones y los riesgos que plantea. Esta falta de conocimiento contribuye a un entorno jurídico en el que las víctimas de deepfakes, fuera de los casos específicos cubiertos por las leyes estatales, a menudo se encuentran sin recursos legales claros. La naturaleza evolutiva de la tecnología deepfake y sus implicaciones requieren un público más informado, así como marcos jurídicos completos para proteger a las personas de su posible uso indebido.

¿Por qué son peligrosos los deepfakes?

La tecnología deepfake, aunque innovadora, introduce riesgos sustanciales. No se trata solo de crear imágenes o vídeos falsos; las implicaciones se extienden a ámbitos graves como:

  • Seguridad personal, con personas que se enfrentan a amenazas de chantaje.
  • La integridad de los procesos democráticos, mediante la fabricación de contenidos políticos engañosos.
  • Los mercados financieros, susceptibles de manipulación a partir de informes fabricados.
  • Identity robo con riesgo de uso indebido de datos personales.

La evolución del panorama exige una respuesta contundente, que combine vigilancia, soluciones tecnológicas y marcos jurídicos para protegerse de estas amenazas emergentes.

¿Cómo detectar los deepfakes?

Detectar contenidos deepfake requiere prestar atención a indicadores visuales y textuales específicos. He aquí algunas señales clave a las que prestar atención:

Indicadores visuales:

  • Postura facial inusual o expresiones extrañas.
  • Movimientos antinaturales de la cara o el cuerpo.
  • Coloración incoherente en todo el vídeo.
  • Apariencias extrañas al acercar o ampliar la imagen.
  • Audio desajustado o incoherente.
  • Falta de parpadeo natural en las personas.

Indicadores textuales:

  • Faltas de ortografía y frases gramaticalmente incorrectas.
  • Flujo de frases que parece poco natural.
  • Direcciones de correo electrónico que parezcan sospechosas.
  • Frases que no coinciden con el estilo esperado del remitente.
  • Mensajes fuera de contexto o irrelevantes.

Además, hay que tener en cuenta las anomalías de comportamiento y contextuales:

  • Incoherencias de comportamiento: Presta atención al comportamiento y los gestos del sujeto. Los deepfakes pueden no reproducir con exactitud rasgos sutiles de la personalidad, movimientos habituales o respuestas emocionales, lo que hace que el sujeto parezca ligeramente fuera de lugar.
  • Anomalías contextuales: Analice el contexto en el que aparece el vídeo o el audio. Las discrepancias en el fondo, las interacciones inesperadas con el entorno o las anomalías en el argumento pueden indicar manipulación.

Los avances de la IA están mejorando la detección de estas señales, pero mantenerse informado sobre estos indicadores es esencial para identificar los deepfakes.

¿Cómo defenderse de los deepfakes?

Una estrategia clave en la defensa contra los deepfakes implica el uso de tecnología avanzada para identificar y bloquear estos medios falsificados.

Agencias gubernamentales como la Defense Advanced Research Projects Agency (DARPA) del Departamento de Defensa de Estados Unidos están a la vanguardia, desarrollando soluciones de vanguardia para distinguir los contenidos reales de los manipulados. Del mismo modo, los gigantes de las redes sociales y las empresas tecnológicas están empleando métodos innovadores para garantizar la autenticidad de los contenidos compartidos en sus plataformas.

Por ejemplo, algunas plataformas utilizan la tecnología blockchain para verificar el origen de vídeos e imágenes, estableciendo fuentes fiables y evitando eficazmente la difusión de contenidos falsos.

Aplicación de políticas de medios sociales

Reconociendo el daño potencial causado por los deepfakes maliciosos, plataformas de medios sociales como Facebook y Twitter han adoptado una postura firme prohibiéndolos. Estas políticas forman parte de un esfuerzo más amplio para proteger a los usuarios de los efectos negativos de los medios engañosos, subrayando el papel de la gobernanza de las plataformas en el mantenimiento de la fiabilidad digital.

Adopción de software de detección de deepfakes

La lucha contra los deepfakes también cuenta con el apoyo de la innovación del sector privado. Varias empresas ofrecen sofisticados programas informáticos de detección de deepfakes, que proporcionan herramientas esenciales para identificar los medios manipulados:

  • La iniciativa de autenticidad de contenidos de Adobe: Adobe ha introducido un sistema que permite a los creadores adjuntar una firma digital a sus vídeos y fotos. Esta firma incluye información detallada sobre la creación del medio, ofreciendo un método transparente para verificar la autenticidad.
  • Herramienta de detección de Microsoft: Microsoft ha desarrollado una herramienta basada en inteligencia artificial que analiza vídeos y fotos para evaluar su autenticidad. Proporciona una puntuación de confianza que indica la probabilidad de manipulación, ayudando a los usuarios a discernir la fiabilidad de los medios que encuentran.
  • Operación Minerva: Esta iniciativa se centra en catalogar las deepfakes conocidas y sus huellas digitales. Comparando los nuevos vídeos con este catálogo, es posible identificar modificaciones de falsificaciones descubiertas previamente, lo que mejora el proceso de detección.
  • Plataforma de detección de Sensity: Sensity ofrece una plataforma que emplea el aprendizaje profundo para detectar medios deepfake, de forma análoga a como las herramientas antimalware identifican virus y malware. Alerta a los usuarios por correo electrónico si encuentran contenidos falsos, lo que añade una capa adicional de protección.

¿Cómo puede protegerse? Medidas prácticas

Más allá de estas soluciones tecnológicas, los particulares pueden tomar medidas prácticas para defenderse de los deepfakes:

  • Manténgase informado: Conocer la existencia y la naturaleza de los deepfakes es el primer paso para defenderse. Al comprender la tecnología y su posible uso indebido, las personas pueden abordar los contenidos digitales de forma más crítica.
  • Verifica las fuentes: Comprueba siempre la fuente de la información. Busca pruebas que la corroboren de fuentes acreditadas antes de aceptar cualquier medio como verdadero.
  • Utilice herramientas de detección fiables: Emplea herramientas de detección de deepfakes cuando estén disponibles. Muchas empresas y plataformas ofrecen herramientas o plugins diseñados para identificar contenidos manipulados.
  • Denuncia los contenidos sospechosos: Si encuentras lo que parece ser un deepfake, denúncialo a la plataforma que aloja el contenido. Los informes de los usuarios desempeñan un papel crucial para ayudar a las plataformas a identificar y tomar medidas contra los medios engañosos.

La defensa contra las falsificaciones profundas requiere un enfoque polifacético que combine la innovación tecnológica, la aplicación de políticas y la vigilancia informada. Manteniéndose informados y aprovechando las herramientas y estrategias disponibles, los particulares y las organizaciones pueden protegerse mejor de los efectos perniciosos de la tecnología deepfake.

¿Para qué sirven los deepfakes?

Los deepfakes, aunque a menudo se debaten en el contexto de su potencial dañino, tienen una serie de aplicaciones en diversos campos. Comprender estos usos ayuda a apreciar la complejidad y la doble naturaleza de la tecnología deepfake. He aquí algunas aplicaciones clave:

  • Entretenimiento y medios de comunicación: La tecnología Deepfake se utiliza cada vez más en películas y videojuegos para mejorar los efectos visuales, como envejecer o des-envejecer a actores, o devolver a la vida a intérpretes fallecidos para que aparezcan en cameos. Esta aplicación también puede extenderse a la creación de avatares virtuales realistas para interacciones en línea.
  • Educación y formación: En contextos educativos, los deepfakes pueden crear experiencias de aprendizaje inmersivas, como recreaciones históricas o simulaciones. Por ejemplo, pueden dar vida a personajes históricos y ofrecer a los estudiantes una forma dinámica de acercarse a la historia.
  • Arte y creatividad: Artistas y creativos exploran los deepfakes como nuevo medio de expresión. Esto incluye la generación de nuevas formas de arte digital, la sátira o la exploración de los límites entre realidad y artificialidad.
  • Publicidad y marketing: Las marcas pueden utilizar la tecnología deepfake para crear contenidos de marketing más atractivos y personalizados. Por ejemplo, los deepfakes permiten utilizar embajadores de marca en diversas campañas sin su presencia física, potencialmente en diferentes idiomas para atender a una audiencia global.
  • Campañas políticas y sociales: Aunque controvertidos, los deepfakes se han utilizado para concienciar sobre cuestiones sociales o sobre los peligros potenciales de la desinformación. Los deepfakes cuidadosamente elaborados pueden poner de relieve la importancia del pensamiento crítico en la era digital.
  • Creación de medios sintéticos: Los deepfakes forman parte de una categoría más amplia de medios sintéticos, utilizados para generar audio, vídeo o imágenes realistas para la creación de contenidos. Esto puede agilizar el proceso de producción de noticias, documentales y otros medios de comunicación.

Aunque las falsificaciones profundas tienen un potencial prometedor en todas estas aplicaciones, es crucial utilizarlas de forma responsable, asegurándose de que se mantienen las normas éticas para evitar su uso indebido y proteger los derechos y la privacidad de las personas.

Ejemplos de deepfakes

Ejemplos conocidos de deepfakes incluyen un vídeo de un falso Barack Obama burlándose de Donald Trump, un falso Mark Zuckerberg alardeando de controlar los datos de miles de millones de personas y una mesa redonda de celebridades deepfaked como Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum y Ewan McGregor.

¿Qué es la ingeniería social?

¿Qué es el catfishing?

Riesgos de la IA en el ciberespacio Security

¿Qué es el phishing?

Preguntas frecuentes

Los particulares pueden demandar la creación de deepfakes alegando difamación, angustia emocional o violación de la propiedad intelectual. La consulta legal es crucial para comprender los derechos y las opciones.