5 casos impactantes de deepfakes que interfieren en la política global
La tecnología deepfake es divertida hasta que cae en manos de un actor de amenazas. Gracias a la continua evolución de los servicios de IA generativa, los deepfakes son cada vez más accesibles y sofisticados. A medida que la tecnología continúa avanzando, es cada vez más difícil para los revisores humanos y los verificadores de hechos profesionales distinguir entre lo real y lo falso.
Como resultado, los casos de ciberdelincuencia con deepfakes son cada vez más comunes, y esta tecnología se está explotando para aumentar las tasas de éxito del fraude de identidad y financiero, difundir desinformación, chantajear a individuos o empresas, manipular la opinión pública, suplantar marcas, crear contenido explícito de personas sin su consentimiento, realizar espionaje corporativo o interferir en la política.
En los últimos años, el mundo ha sido testigo de casos reales que muestran cómo la creciente sofisticación y accesibilidad de la IA pueden erosionar la confianza en los procesos democráticos, con deepfakes utilizados para influir en la opinión pública durante las elecciones y cambiar la intención de voto.
Un estudio de 2024 realizado para The Guardian reveló que solo uno de cada cuatro votantes registrados en EE.UU. tiene plena confianza en su capacidad para distinguir entre contenido visual real y generado por IA, lo que plantea enormes riesgos para la integridad de la información en contextos políticos.
Estos son 5 de los casos más impactantes de deepfakes que han interferido en la política global.
1. Deepfake de Zelenskyy anuncia la rendición de Ucrania
En marzo de 2022, un video deepfake del presidente ucraniano Volodymyr Zelenskyy mostraba a los soldados ucranianos recibiendo la orden de deponer las armas y rendirse ante Rusia.
Mientras el video circulaba en redes sociales, hackers incluso transmitieron el mensaje falso de Zelenskyy en televisión en vivo. También se publicó en un sitio de noticias ucraniano antes de ser desmentido y eliminado.
Aunque funcionarios de Facebook, YouTube y Twitter afirmaron que el video fue eliminado por violar políticas, supuestamente se impulsó en redes sociales rusas.
“Este es el primero que realmente ha ganado tracción, pero sospecho que es solo la punta del iceberg”, dijo Hany Farid, profesor de la Universidad de California, Berkeley y experto en análisis forense de medios digitales, en una declaración a NPR en 2022.
En un video publicado en su canal de Telegram, Zelenskyy respondió al video falso diciendo: “Estamos defendiendo nuestra tierra, nuestros hijos, nuestras familias. Así que no planeamos deponer las armas. Hasta nuestra victoria”.
Aunque la calidad del deepfake de 2022 no era muy sofisticada, la tecnología ha avanzado mucho desde entonces y los deepfakes son cada vez más convincentes.
Los investigadores comentaron que la circulación de estos videos podría llevar a que las personas cuestionen la veracidad de videos reales del presidente Zelenskyy en el futuro.

2. Video deepfake acusa al gobernador de Minnesota y ex candidato a la vicepresidencia Tim Walz de abuso sexual
En octubre de 2024, una red de propaganda alineada con Rusia conocida como Storm-1516 supuestamente orquestó una campaña de desinformación que fabricó y difundió acusaciones falsas que acusaban a Tim Walz de agredir sexualmente a un exalumno durante su tiempo como maestro de secundaria.
Storm-1516 es conocida por crear videos deepfake de denunciantes falsos y, supuestamente, difundió al menos 50 narrativas falsas antes de las elecciones de EE. UU. del 5 de noviembre de 2024. El mismo grupo, Storm-1516, también estuvo vinculado a afirmaciones falsas de que la ex vicepresidenta Kamala Harris había protagonizado un accidente con fuga que dejó a una mujer paralizada en San Francisco en 2011.
Un video que afirmaba mostrar a un exalumno de Walz describiendo abusos por parte del exentrenador de fútbol se difundió ampliamente en X después de ser compartido por una prominente cuenta anónima que promovía QAnon.
Más tarde se descubrió que el video fue creado utilizando IA, pero eso no impidió que alcanzara más de 4.3 millones de vistas antes de ser eliminado. Aunque la campaña para atacar a Walz precedía la publicación del video deepfake, el video hizo que la historia se volviera viral.
3. El partido populista y antiinmigración Alternativa para Alemania utiliza imágenes generadas por IA para ganar votos
En toda Europa, los partidos de extrema derecha y los activistas han utilizado cada vez más contenido generado por IA para promover agendas antiinmigrantes y xenófobas.
En Alemania, miembros del partido Alternativa para Alemania (AfD) publicaron contenido generado por IA en línea para promover su postura antiinmigración e influir en los votantes antes de las elecciones del 23 de febrero de 2025.
La excandidata a canciller de extrema derecha Alice Weidel compartió un video generado por IA que presentaba un futuro “idílico” sin inmigración, mostrando una Alemania llena de personas blancas, rubias y de ojos azules, frente a un futuro “distópico” dominado por la inmigración masiva, donde Angela Merkel se toma una selfie con una persona de cabello y piel más oscuros.
Incluso se han reportado canciones generadas por IA que difunden retórica antiinmigrante con letras como: “ahora es el momento de irse, los deportaremos a todos”, que miembros del partido han sido criticados por cantar.
Weißt Du noch, wie schön Deutschland einmal war? Und glaubst Du immer noch, dass ausgerechnet die CDU all die Probleme löst, die sie selbst verursacht hat? Deshalb am 23. Februar #AfD! pic.twitter.com/gE4n16OvVH
— Alice Weidel (@Alice_Weidel) January 5, 2025
En las elecciones de febrero de 2025, el AfD obtuvo el 20,8 % de los votos, quedando en segundo lugar después de la CDU/CSU. El partido de extrema derecha duplicó su participación y logró su mejor resultado histórico en elecciones nacionales de Alemania.
4. Grabación de audio deepfake revela manipulación electoral en Eslovaquia
A solo 48 horas de la apertura de las urnas para las elecciones del 30 de septiembre de 2023 en Eslovaquia, se publicó una grabación de audio deepfake que supuestamente mostraba al candidato Michal Šimečka, líder del partido liberal Progresista Eslovaquia, y a Monika Tódová, del diario Denník N, discutiendo cómo manipular las elecciones. En la grabación, las dos voces hablaban sobre la compra de votos de la minoría marginada romaní del país.
Aunque Šimečka y Denník N desmintieron rápidamente el audio como falso, el clip se compartió durante el período de moratoria de 48 horas previo a las elecciones en Eslovaquia, durante el cual los medios y las figuras políticas deben permanecer en silencio.
Como resultado, las leyes electorales dificultaron desmentir públicamente la publicación. Además, al tratarse de una grabación de audio —no de un video—, aprovechó una laguna en la política de Meta sobre medios manipulados, que solo prohíbe videos manipulados en los que alguien parezca decir algo que nunca dijo.
El partido liberal Progresista Eslovaquia de Šimečka perdió las elecciones frente al partido populista y nacionalista de izquierda SMER.

5. Deepfake del ex primer ministro del Reino Unido, Rishi Sunak
En enero de 2024, The Guardian informó que más de 100 anuncios de video deepfake que suplantaban al ex primer ministro del Reino Unido, Rishi Sunak, se pagaron para ser promocionados en Facebook durante el mes anterior, antes de las elecciones generales de julio de 2024.
Se gastaron más de £12,929 (más de $17,000) en 143 anuncios, originados en 23 países, incluidos EE. UU., Turquía, Malasia y Filipinas.
Uno de los videos parodia afirmaba que Sunak requeriría que los jóvenes de 18 años fueran enviados a zonas de guerra activas en Gaza y Ucrania como parte de su servicio nacional, acumulando más de 400,000 vistas.
La investigación fue realizada por Fenimore Harper, una empresa de comunicaciones fundada por Marcus Beard, exfuncionario de Downing Street que lideró la respuesta de No. 10 para contrarrestar teorías conspirativas durante la crisis del Covid.
“Con la llegada de herramientas económicas y fáciles de usar para clonar voces y rostros, se necesita muy poco conocimiento y experiencia para utilizar la imagen de una persona con fines malintencionados.” – Marcus Beard, The Guardian
Cómo los deepfakes amenazan los procesos de verificación de identidad
Más allá de difundir desinformación, los estafadores utilizan cada vez más los deepfakes para suplantar a personas reales y manipular los sistemas de verificación de identidad biométrica, a menudo para obtener acceso no autorizado a servicios o datos.
Esto se realiza incluso a través de un ataque de presentación, cuando un estafador presenta físicamente una biometría falsa, como un video deepfake, o un ataque de inyección, cuando el atacante elude la cámara e inyecta directamente un video o archivo de imagen falso en el software de verificación utilizando un emulador o cámara virtual.
Con herramientas de código abierto e IA generativa, los deepfakes de alta calidad se pueden crear de manera económica y sencilla, reduciendo el costo y el esfuerzo necesarios para cometer fraudes de identidad. Esto ha llevado a un aumento de la actividad de deepfakes.
En nuestra encuesta a clientes de 2025, descubrimos que el 96,4% de los profesionales de fintech consideran que el fraude de identidad profunda y sintética es una de las principales preocupaciones. Casi el 30% informó que había encontrado ocasionalmente o con frecuencia incidentes de fraude de identidad profunda o sintética en el último año.
Verificación de identidad biométrica diseñada para detectar deepfakes
Impulsadas por IA avanzada, las soluciones de verificación de identidad de Incode evolucionan en tiempo real para adelantarse a las amenazas emergentes, incluido el rápido aumento del fraude impulsado por deepfakes.
Analizando inconsistencias de textura, reflejos de luz, patrones de movimiento y estructura del iris, Incode ofrece protección avanzada contra deepfakes, verificando si la persona frente a la cámara es real y está en vivo en solo 40 milisegundos.
Incode ha entrenado más de 35 modelos de ML propietarios en un enorme conjunto de datos de más de 5,9 millones de muestras de fraude anotadas. Esto permite a Incode adaptarse de manera proactiva y superar las técnicas de fraude en evolución, incluidas las impulsadas por IA generativa.
Nuestras soluciones verifican si la persona frente a la cámara es real y está en vivo:
- Más del 99,6 % de precisión en la Evaluación de Tecnología de Reconocimiento Facial 1:N (FRTE) de NIST y fue clasificado como #1 entre los proveedores de soluciones de verificación de identidad completas.
- Certificado iBeta Nivel 2 para detección de suplantación
Incode detiene más del 99,9 % de los ataques de suplantación en una amplia gama de vectores, incluidos ataques digitales (deepfakes) y ataques físicos (presentación).
¿Buscas proteger tu negocio contra deepfakes hiperrealistas?
Programa una demostración ahora para experimentar cómo Incode protege contra el fraude de múltiples ángulos utilizando protección en múltiples capas.