Vivimos en un momento en el que ya no basta con ver o escuchar algo para darlo por cierto. Vídeos hiperrealistas de políticos diciendo barbaridades, audios de directivos ordenando transferencias millonarias o imágenes íntimas falsas circulando por redes… Todo esto es posible gracias a los deepfakes, y cualquiera de nosotros puede ser víctima, no hace falta ser famoso.
Entender bien qué son, cómo se crean, qué riesgos conllevan y, sobre todo, cómo podemos detectarlos y protegernos se ha convertido en una competencia digital básica, casi tan importante como saber distinguir un correo de phishing o configurar la privacidad del móvil.
Qué son los deepfakes y por qué se han puesto tan de moda
Los deepfakes son contenidos audiovisuales falsos (vídeo, imagen o audio) generados o manipulados con inteligencia artificial para que parezcan totalmente auténticos. El término nace de la unión de “deep” (por deep learning o aprendizaje profundo) y “fake” (falso). Es decir, se trata de falsificaciones profundas basadas en algoritmos de aprendizaje automático capaces de imitar rasgos, gestos y voces humanas con un realismo que, a simple vista, puede engañar a cualquiera.
Aunque la manipulación de imágenes y sonidos viene de lejos, el boom actual de los deepfakes arranca alrededor de 2017, cuando un usuario de Reddit empezó a publicar vídeos pornográficos en los que sustituía digitalmente el rostro de actrices famosas por el de otras personas. Desde entonces, la tecnología se ha popularizado, las herramientas son cada vez más accesibles y los resultados más difíciles de detectar.
Esta evolución ha convertido a los deepfakes en algo mucho más serio que un simple entretenimiento: son ya una herramienta de desinformación, fraude, ciberacoso y extorsión, con impacto directo en la reputación de personas, empresas e instituciones, e incluso en procesos electorales y en la estabilidad de países.
Cómo funciona la tecnología que hay detrás de los deepfakes
Para crear un deepfake convincente no basta con un programa de edición de vídeo. La clave está en el uso de redes neuronales profundas y grandes cantidades de datos (fotos, vídeos, grabaciones de voz). A partir de este material, la IA “aprende” cómo es la cara, la voz y la forma de moverse de una persona para poder imitarla después en contextos nuevos.
La técnica más habitual se basa en lo que se conoce como GAN (Generative Adversarial Networks, redes generativas antagónicas). En este modelo cooperan -y compiten- dos redes neuronales: una genera imágenes o audios falsos, y la otra intenta detectar si son falsos o reales. El proceso se repite tantas veces que, poco a poco, el generador consigue producir contenidos que el discriminador ya no es capaz de identificar como falsos.
En la práctica, para elaborar un vídeo facial se alimenta al sistema con miles de fotogramas del rostro original y del rostro que se quiere superponer. Un algoritmo “codificador” detecta rasgos comunes (forma de la cara, estructura ósea, proporciones básicas) y los reduce a una representación interna. Luego, dos “decodificadores” reconstruyen esas caras: uno para la persona A y otro para la persona B. Intercambiando la información entre ellos, se consigue que la cara de la persona A adopte las expresiones, movimientos y gestos de la persona B.
En el caso de la voz, los modelos analizan características como el timbre, el ritmo, la entonación o la pronunciación de sonidos complejos. Cada segundo de voz humana contiene miles de datos que la IA puede aprender, hasta el punto de clonar voces con apenas unos minutos de audio limpio, lo que hace cada vez más difícil distinguir una grabación real de una sintetizada.
Principales tipos de deepfakes que circulan hoy
Dentro del mundo de los deepfakes podemos distinguir varias categorías según el tipo de contenido manipulado. Los más habituales se centran en el rostro y en la voz, aunque hay variantes más avanzadas.
Por un lado tenemos los llamados “deepfaces”, que son deepfakes de imagen o vídeo en los que se crean o sustituyen caras completas. Pueden partir de material real, combinando rostros de varias personas, o incluso generarse desde cero, dando lugar a caras de individuos que no existen pero parecen totalmente reales. Estas técnicas se usan tanto para superponer la cara de una persona sobre el cuerpo de otra como para generar personajes sintéticos.
Por otro lado están los “deepvoices”, que se centran en el audio. Aquí la IA se entrena con grabaciones de voz de la víctima y, después, produce nuevos mensajes que suenan prácticamente igual que la persona real. Este tipo de falsificación ha sido utilizado ya en fraudes empresariales, como el conocido caso en el que un ejecutivo transfirió más de 200.000 dólares creyendo obedecer una orden de su CEO, cuando en realidad escuchaba una voz clonada.
Existen, además, variantes más sofisticadas que combinan varios elementos: deepfakes que alteran gesto, postura y entorno, o que modifican no solo la cara sino también el cuerpo completo, aunque esto requiere mucha más potencia de cálculo y es todavía menos frecuente en ámbitos domésticos.
Cómo se crea en la práctica un deepfake
Aunque pueda sonar muy técnico, hoy en día hacer un deepfake básico está al alcance de cualquiera con un ordenador decente o incluso un móvil potente. Cuantos más conocimientos de IA, edición y postproducción tenga la persona que lo genera, más fino y realista será el resultado, pero existen programas “casi automáticos” que hacen gran parte del trabajo.
De forma simplificada, el proceso suele seguir estos pasos: primero se recopilan muchas imágenes, vídeos o audios de la persona objetivo; después se entrenan los modelos para que aprendan sus rasgos característicos; y, por último, se aplica ese modelo sobre un vídeo o audio base para generar el contenido falso. A continuación se corrigen artefactos visibles (bordes raros, sombras mal colocadas, movimientos extraños) mediante edición tradicional.
En los casos más avanzados, se recurre a técnicas complejas como las GAN ya comentadas. Un generador produce un fotograma falso, el discriminador lo evalúa, se calcula el error y se ajustan los parámetros; así, implicando miles de iteraciones, se llega a un nivel de realismo que puede superar al ojo humano medio. A eso hay que sumar retoques en color, iluminación, sincronización labial y mezcla de sonido para pulir el resultado.
En el terreno de la imagen fija se utilizan, además, herramientas específicas de análisis de errores de compresión (ELA) y de metadatos para identificar posibles manipulaciones. Los creadores más sofisticados, eso sí, conocen ya estas técnicas y tratan de borrar o modificar esa información para que no delate el engaño.
Usos positivos de los deepfakes: no todo es oscuro
Pese a su mala fama, los deepfakes también tienen aplicaciones legítimas y creativas en campos como el cine, el arte, la educación o la medicina. El problema no es la tecnología en sí, sino el uso que se hace de ella.
En la industria audiovisual se han empleado para rejuvenecer o “resucitar” digitalmente a actores y terminar escenas cuando no era posible rodarlas físicamente. También se usan para ajustar diálogos en doblajes, corregir errores de rodaje o recrear figuras históricas en documentales. Ejemplos como la recreación de la Princesa Leia o las exposiciones inmersivas tipo “Dalí Lives” ilustran hasta qué punto estas técnicas pueden enriquecer la experiencia cultural.
En educación y divulgación, los deepfakes permiten crear avatares realistas que expliquen conceptos complejos o simulen situaciones críticas para entrenar a profesionales (pilotos, personal sanitario, cuerpos de seguridad…). La creación controlada de escenarios “falsos pero verosímiles” resulta útil para preparar respuestas ante crisis.
En el ámbito terapéutico se han propuesto usos muy sensibles, como ayudar a algunas personas a procesar duelos o a enfrentarse a recuerdos traumáticos mediante recreaciones controladas, siempre dentro de un marco ético y clínico muy estricto. También se explora la clonación de voz para devolver, en parte, la capacidad de comunicarse a pacientes que la han perdido, como ocurrió con figuras conocidas que recuperaron su timbre vocal gracias a modelos de audio entrenados con grabaciones antiguas.
En el sector empresarial y del comercio electrónico se estudian aplicaciones como probadores virtuales con avatares personalizados o videojuegos en los que los personajes hablan con voces más naturales generadas por IA. Son usos que, si se gestionan bien, pueden aportar valor sin vulnerar derechos.
Riesgos y usos maliciosos: cuando el deepfake se convierte en arma
El gran problema es que, en manos equivocadas, esta tecnología se convierte en un instrumento potentísimo para engañar, manipular y dañar. Los deepfakes se utilizan ya en varios frentes preocupantes.
Uno de los más graves es la desinformación y la manipulación política. Vídeos de líderes anunciando retiradas militares, declaraciones explosivas o confesiones inventadas pueden influir en la opinión pública, desestabilizar mercados financieros o tensar relaciones internacionales. Ya se han visto casos en conflictos recientes donde se difundían discursos falsos de rendición o anuncios políticos fabricados.
También se han convertido en una herramienta habitual en campañas de desprestigio y ataques a la reputación. Un solo vídeo trucado de contenido comprometedor basta para arruinar la imagen pública de una persona, aunque más tarde se demuestre que era falso. El daño social y psicológico se produce en cuestión de horas, gracias a la viralidad de redes sociales y aplicaciones de mensajería.
El ámbito económico tampoco se libra: los deepfakes de voz y vídeo son ya pieza clave en fraudes sofisticados, suplantaciones de identidad y estafas del tipo “fraude del CEO”. Los atacantes se hacen pasar por altos directivos o proveedores, utilizando llamadas, videollamadas o mensajes de voz que suenan convincentemente reales, para conseguir transferencias de dinero, datos sensibles o accesos a sistemas críticos.
Donde la situación es especialmente preocupante es en la creación de material sexual no consentido. La mayoría del contenido deepfake identificado en la red tiene carácter pornográfico, a menudo con rostros de mujeres famosas o personas corrientes insertados en vídeos íntimos. Esto se usa para ciberacoso, sextorsión, venganza o simple humillación, con consecuencias legales y emocionales gravísimas para las víctimas.
Hay, además, un fenómeno más sutil pero igual de peligroso: la llamada “apocalipsis de la información” o crisis de confianza. Cuando la gente se acostumbra a ver contenidos falsos muy verosímiles, puede terminar desconfiando de todo, incluso de pruebas reales. Esto crea un caldo de cultivo perfecto para que cualquiera descalifique evidencias incómodas alegando que “eso está manipulado”.
DeepfakeMalware: cuando el engaño se mezcla con el ciberataque
En los últimos años ha surgido un concepto que une dos mundos peligrosos: el de los deepfakes y el del malware. DeepfakeMalware es la denominación de ciertos ataques que emplean IA generativa para apoyar campañas de desinformación, fraude financiero o ciberespionaje, integrando vídeos o audios falsos en la cadena de ataque.
Por ejemplo, un atacante puede infiltrarse en una videoconferencia corporativa haciéndose pasar por un directivo, usando su cara y su voz clonadas, para obtener información confidencial o dar instrucciones que nadie pondrá en duda. También pueden difundirse vídeos falsos para hundir la cotización de una empresa, sembrar pánico en mercados o manipular decisiones de inversión.
Estos ataques no se limitan al engaño social: el malware tradicional puede aprovecharse del impacto psicológico de un deepfake. Un vídeo alarmante puede empujar a los usuarios a descargar un supuesto “parche” que en realidad es un virus, o a abrir un fichero adjunto malicioso haciéndose pasar por documentación oficial de la empresa.
Para contener este tipo de amenazas es esencial combinar buenas prácticas de ciberseguridad (antimalware actualizado, segmentación de redes, autenticación robusta) con formación específica en detección de manipulaciones digitales y en verificación de identidades durante llamadas, videollamadas o correos urgentes.
Cómo detectar un deepfake: señales y trucos prácticos
Reconocer un deepfake no siempre es fácil, pero todavía hay detalles que nos pueden delatar el engaño, especialmente en los montajes menos pulidos. Conviene entrenar el ojo y el oído para fijarse en ciertos fallos sutiles.
En la parte visual, algunos indicios habituales son: parpadeos poco naturales (demasiado raros o escasos), movimientos faciales algo rígidos, piel excesivamente lisa o plástica, bordes borrosos alrededor del contorno de la cara, cambios raros en el fondo o errores de iluminación (sombras imposibles, reflejos que no encajan). Los planos suelen ser cercanos para evitar tener que manipular el cuerpo entero, y la duración de los vídeos tiende a ser corta, porque generar muchos segundos de metraje de alta calidad requiere mucho cómputo.
Conviene fijarse también en la coherencia entre el rostro y el resto del cuerpo: cuello desproporcionado, manos que no se ven nunca, posturas raras o ropa que no cuadra con el contexto. Reproducir el vídeo a velocidad lenta ayuda a detectar saltos o “glitches” en el interior de la boca, la lengua o los dientes, zonas especialmente difíciles de recrear con precisión.
En el audio, una pista clara es la desincronización entre labios y sonido. También pueden notarse cambios extraños en el ambiente sonoro, cortes bruscos en el ruido de fondo, entonaciones algo monótonas o problemas con determinados sonidos fricativos (como la “f” o la “s”), que los modelos aún pronuncian de forma algo artificial.
Más allá de estas señales físicas, hay que analizar siempre el origen y el contexto del contenido. ¿Quién lo ha publicado primero?, ¿en qué plataforma?, ¿lo recogen medios fiables o solo perfiles anónimos? Buscar la fuente original, contrastar en medios de referencia y tirar de servicios de fact-checking reduce mucho las probabilidades de caer en la trampa.
Finalmente, es básico aplicar sentido común y pensamiento crítico. Si un vídeo encaja demasiado bien con lo que un determinado grupo quiere creer, o si el contenido es extremadamente escandaloso pero solo circula por cadenas de WhatsApp, toca desconfiar, investigar un poco más y, desde luego, no compartirlo alegremente.
Herramientas y técnicas profesionales para identificar deepfakes
Además de nuestra propia capacidad de análisis, existe ya un ecosistema de herramientas especializadas para detectar manipulaciones. Algunas, como Microsoft Video Authenticator, Deepware Scanner o Sensity AI, utilizan sus propios modelos de IA para buscar patrones sutiles que delatan un contenido sintético.
En el terreno forense se recurre también al análisis de metadatos (información técnica sobre el archivo: dispositivo de captura, fecha, software de edición utilizado, etc.) y al análisis de niveles de error de compresión (ELA, Error Level Analysis), que puede mostrar áreas de la imagen con distinta degradación, típicas de zonas retocadas o pegadas sobre otras.
Otros métodos avanzados se centran en irregularidades geométricas o fisiológicas: microvariaciones en la dilatación de las pupilas, diferencias mínimas entre la frecuencia cardíaca detectada visualmente en distintas zonas de la cara, incoherencias tridimensionales de iluminación, etc. Estas técnicas son complejas pero permiten alcanzar tasas de acierto muy altas en entornos controlados.
En el caso del audio, los algoritmos se fijan en parámetros que al oído humano se le escapan: espectros de frecuencia, microvariaciones de tono y ritmo, patrones imposibles en la articulación de ciertos fonemas o en el fin de frase. Hoy por hoy, las máquinas son mejores que las personas distinguiendo muchos audios sintéticos, siempre que cuenten con grabaciones originales de referencia.
Pese a estos avances, la realidad es que la carrera entre quienes crean deepfakes y quienes los detectan es continua. Cada mejora en la generación obliga a mejorar también las técnicas de verificación, lo que hace imprescindible seguir investigando y, sobre todo, no olvidar que la primera línea de defensa sigue siendo una ciudadanía bien informada.
Impacto social, ético y legal de los deepfakes
Los deepfakes no solo plantean retos técnicos; tocan de lleno cuestiones éticas, legales y sociales. Afectan al derecho a la propia imagen, a la intimidad, al honor, a la libertad de información y hasta a la confianza en las instituciones.
Uno de los grandes riesgos es que se utilicen como “pruebas” en procesos judiciales o mediáticos. Si cada vez es más difícil demostrar que un vídeo es auténtico, se complica tanto acusar con base sólida como defenderse de acusaciones fabricadas. Los sistemas de reconocimiento facial o de voz también pueden verse comprometidos si los atacantes son capaces de engañarlos con deepfakes muy bien hechos.
Desde el punto de vista ético, se abre el debate sobre hasta qué punto es legítimo recrear a personas (vivas o fallecidas) sin su consentimiento, incluso con fines aparentemente nobles o artísticos. La noción de “herencia digital” y de quién puede autorizar el uso de la imagen o la voz de alguien después de su muerte está empezando a concretarse en diversas legislaciones.
En el plano normativo, distintos países están moviendo ficha. Estados de EE. UU. como Virginia, California o Texas han aprobado leyes específicas para perseguir los deepfakes pornográficos no consentidos y prohibir su uso en periodos electorales. China ha impuesto restricciones muy duras a este tipo de contenidos, y en la Unión Europea se está desplegando la primera gran Ley de Inteligencia Artificial, que clasifica los sistemas según su nivel de riesgo y exige transparencia en el uso de contenidos sintéticos.
Aun así, la regulación va siempre por detrás de la tecnología. El reto es encontrar un equilibrio entre proteger derechos fundamentales (privacidad, honor, no discriminación) y no frenar la innovación. Además, atribuir responsabilidades no es sencillo: ¿culpable es quien diseña la herramienta, quien hace el vídeo, quien lo sube o quien lo viraliza?
Por todo ello, organismos internacionales, fuerzas de seguridad y entidades como Europol o la ONU insisten en la necesidad de una “alfabetización tecnoética”: educar a la ciudadanía -especialmente a la gente joven- sobre los riesgos del mal uso de estas tecnologías, las implicaciones legales de difundir contenidos dañinos y la importancia de actuar con criterio antes de reenviar o publicar algo.
Qué puedes hacer para protegerte de los deepfakes
Frente a un problema tan complejo es fácil pensar que poco se puede hacer a nivel individual, pero no es así. Hay varias medidas prácticas que cualquiera puede adoptar para reducir su exposición y su vulnerabilidad.
La primera es cuidar la huella digital: limitar la cantidad de fotos, vídeos y audios personales que publicamos abiertamente en redes, especialmente en perfiles públicos. Cuanto más material tenga un atacante, más fácil le resultará entrenar un modelo convincente. Revisar la configuración de privacidad y pensar dos veces antes de subir contenido comprometido es un buen comienzo.
La segunda es adoptar una actitud crítica ante cualquier contenido llamativo. Verificar siempre la fuente, contrastar en varios medios, consultar plataformas de verificación de bulos y, si algo huele raro, no compartirlo. Evitar contribuir a la viralización de posibles deepfakes ya es una gran ayuda para cortar su alcance.
En el ámbito profesional y empresarial, es clave reforzar los protocolos de validación de identidad. No obedecer órdenes sensibles (pagos, cambios de contraseñas, envío de documentación crítica) basándose solo en una llamada o un vídeo. Implantar sistemas de “doble canal” (por ejemplo, confirmar por una vía diferente) y usar autenticación fuerte reduce mucho el margen de maniobra de los atacantes.
Por último, nunca está de más formarse en ciberseguridad básica, desinformación y pensamiento crítico. Conocer cómo operan los ciberdelincuentes, cómo se construyen los bulos y qué herramientas tenemos para detectarlos nos coloca en una posición mucho más segura frente a cualquier deepfake que nos llegue al móvil.
El avance de la inteligencia artificial promete seguir afinando la calidad de los deepfakes, pero también está impulsando mejores sistemas de detección y marcos legales más claros; en este escenario cambiante, tener la cabeza fría, desconfiar de lo demasiado perfecto y contrastar siempre la información son las mejores cartas para movernos por un entorno digital en el que, cada vez más, no todo lo que parece real lo es, pero podemos aprender a distinguirlo.