En octubre de 2023, un vídeo comenzó a circular en canales de Telegram afiliados a grupos armados en Oriente Próximo. En él, un comandante israelí de alto rango anunciaba una retirada táctica de posiciones en Gaza. El uniforme era correcto. Las insignias, impecables. El acento, convincente. El problema: ese comandante no había dicho jamás esas palabras. Su rostro había sido injertado digitalmente sobre el cuerpo de un actor mediante tecnología de deepfakes y guerra, creando lo que los analistas de desinformación llaman «el arma de confusión masiva del siglo XXI».
El vídeo se compartió más de 47.000 veces antes de que las Fuerzas de Defensa de Israel emitieran un desmentido oficial. Para entonces, ya había cumplido su objetivo: sembrar dudas entre soldados y civiles, generar titulares en medios internacionales y demostrar que la línea entre realidad y fabricación digital se había vuelto peligrosamente difusa en el campo de batalla moderno.
La afirmación: qué se dice exactamente sobre deepfakes en Oriente Próximo
Según reportes de organismos de inteligencia occidentales y análisis de verificadores digitales, los conflictos recientes en Oriente Próximo han visto un aumento exponencial en el uso de contenido sintético generado por inteligencia artificial. Las afirmaciones principales incluyen:
Soldados falsificados
Vídeos que muestran a militares de alta graduación dando órdenes de repliegue, admitiendo derrotas o haciendo declaraciones comprometedoras que nunca ocurrieron. La narrativa conspirativa sugiere que estados-nación están desplegando deepfakes y guerra como arma psicológica sistemática, capaz de desmoralizar tropas enemigas sin disparar un solo tiro.
Vídeos de rendición
Grabaciones fabricadas donde supuestos prisioneros de guerra confiesan crímenes de guerra o hacen llamados a la deserción. Estos contenidos se distribuyen en redes sociales árabes e israelíes con el objetivo explícito de erosionar la cohesión de las fuerzas contrarias.
Propaganda de IA
Algunos análisis afirman que hasta el 30% del contenido viral sobre el conflicto palestino-israelí contiene algún tipo de manipulación digital, desde deepfakes completos hasta ediciones sutiles de audio que cambian el sentido de declaraciones reales. La afirmación más extrema: que las guerras modernas se libran tanto en el terreno como en servidores de renderizado de IA.
Contexto: de dónde sale y por qué se extiende
Historial de deepfakes militares
La preocupación no es nueva ni infundada. En 2018, investigadores de la Universidad de Washington crearon un deepfake de Barack Obama para demostrar los riesgos de esta tecnología. En 2022, durante la invasión rusa de Ucrania, apareció un vídeo falso del presidente Zelenski pidiendo a sus tropas que se rindieran. Fue rápidamente desmentido, pero estableció un precedente: los deepfakes ya no son ciencia ficción, son táctica militar documentada.
En el contexto de Oriente Próximo, la situación se complica por la fragmentación mediática. Con docenas de canales de Telegram, cuentas de X (antes Twitter) y grupos de WhatsApp operando sin verificación, el ecosistema informativo es particularmente vulnerable a la manipulación.
Escalada tecnológica
Lo que hace cinco años requería equipos de expertos y semanas de renderizado, hoy puede hacerse en un portátil con software gratuito en cuestión de horas. Herramientas como Stable Diffusion, Midjourney para imágenes, o D-ID para vídeos han democratizado la creación de contenido sintético. Esta accesibilidad es un arma de doble filo: facilita tanto la creación artística como la desinformación militar.
Redes de amplificación
Los estudios de análisis de redes sociales muestran que contenido relacionado con deepfakes y guerra se amplifica mediante redes coordinadas de bots. En un estudio de 2023 de la Atlantic Council’s Digital Forensic Research Lab, se identificaron al menos 12 redes de amplificación activas que difundían contenido sintético sobre el conflicto israelí-palestino, algunas con vínculos rastreables a actores estatales.

Análisis de la evidencia: qué es real, qué es especulación
Casos verificados
Empecemos por lo documentado. Organismos como Bellingcat, Maldita.es y la Unidad de Verificación de la BBC han confirmado al menos siete casos de deepfakes militares en conflictos de Oriente Próximo entre 2022 y 2024. Estos incluyen:
- El vídeo mencionado del comandante israelí (octubre 2023)
- Una grabación falsa de un líder de Hamás negociando con Israel (marzo 2023)
- Audio manipulado de conversaciones militares egipcias sobre el conflicto (enero 2024)
- Vídeos de «prisioneros» confesando que resultaron ser actores con rostros sustituidos digitalmente
Estos casos están verificados mediante análisis forense digital: inconsistencias en parpadeo, microexpresiones faciales desincronizadas, artefactos de compresión característicos de modelos generativos, y metadatos de archivos que revelan su origen sintético.
Casos exagerados
Sin embargo, la narrativa de que «el 30% del contenido viral es deepfake» carece de respaldo metodológico sólido. Este dato proviene de un informe preliminar que confundía «contenido manipulado» (que incluye ediciones simples, recortes de contexto y memes) con deepfakes propiamente dichos. La diferencia es crucial.
Verificadores profesionales estiman que los deepfakes auténticos representan menos del 2% del contenido viral sobre conflictos en Oriente Próximo. El problema no es tanto la cantidad como el impacto: un solo deepfake bien ejecutado puede generar más confusión que mil bulos convencionales.
Capacidad técnica actual
Aquí viene la parte tranquilizadora: crear un deepfake militar realmente convincente sigue siendo técnicamente complejo. Los mejores detectores actuales identifican correctamente el 94% de los deepfakes mediante análisis de:
- Patrones de parpadeo: los humanos parpadeamos cada 2-10 segundos; los deepfakes tempranos no lo hacían o lo hacían de forma robótica
- Inconsistencias de iluminación: la luz reflejada en ojos y piel debe coincidir con la fuente luminosa del entorno
- Movimientos labiales: la sincronización perfecta es extremadamente difícil de lograr
- Artefactos de compresión: los modelos generativos dejan «huellas digitales» específicas
Los deepfakes que circulan en contextos de guerra suelen ser detectables por observadores entrenados, aunque el ciudadano medio carece de estas herramientas de análisis.
Por qué resulta convincente: la psicología de creer en armas IA
Miedo tecnológico
La idea de que la IA puede fabricar realidades falsas indistinguibles de las verdaderas toca una ansiedad existencial profunda: ¿cómo podemos confiar en nuestros propios ojos? Este temor no es irracional. Evolutivamente, nuestro cerebro está diseñado para confiar en la evidencia visual por encima de casi cualquier otra cosa. Cuando esa confianza se erosiona, experimentamos una disonancia cognitiva que nos hace más susceptibles a narrativas apocalípticas.
Narrativa de control
Las teorías sobre deepfakes y guerra encajan perfectamente en el arquetipo conspirativo del «control total». La idea de que gobiernos o élites tecnológicas pueden fabricar cualquier realidad satisface nuestra necesidad psicológica de encontrar agentes responsables del caos. Es más reconfortante creer que alguien controla la situación (aunque sea malvadamente) que aceptar que vivimos en un ecosistema informativo fragmentado donde la verdad es difícil de establecer.
Sesgo de confirmación
Si ya desconfías de un actor político o militar, un vídeo que muestre su supuesta manipulación mediante deepfakes confirma tus sospechas previas. Este sesgo funciona en ambas direcciones: quienes apoyan a Israel verán deepfakes palestinos por todas partes; quienes apoyan a Palestina verán manipulación israelí. Ambos grupos estarán parcialmente en lo cierto y mayoritariamente equivocados.
Preguntas frecuentes
¿Cómo puedo verificar si un vídeo militar es un deepfake?
Busca estas señales de alarma: parpadeo irregular o ausente, bordes borrosos alrededor del rostro (especialmente cerca del cabello), iluminación inconsistente en los ojos, movimientos labiales que no sincronizan perfectamente con el audio, y calidad de imagen que varía entre el rostro y el resto del cuerpo. Herramientas gratuitas como InVID-WeVerify (extensión de navegador) pueden ayudar con análisis básicos. Pero la mejor estrategia es la verificación cruzada: ¿otros medios confiables reportan lo mismo? ¿La fuente original es identificable?

¿Están los ejércitos realmente usando deepfakes como arma?
Sí, pero con matices importantes. Hay evidencia documentada de uso táctico de deepfakes en operaciones de información, pero no al nivel apocalíptico que sugieren algunas narrativas. La mayoría de operaciones de desinformación militar siguen usando técnicas más simples (edición convencional, contenido fuera de contexto, actores humanos) porque son más baratas, rápidas y difíciles de rastrear. Los deepfakes son el Ferrari de la desinformación: impresionantes pero poco prácticos para uso masivo.
¿Puede la IA detectar deepfakes mejor que los humanos?
Actualmente, sí. Los sistemas de detección basados en aprendizaje automático superan a observadores humanos entrenados en un 15-20%. Empresas como Microsoft, Google y Meta están desarrollando detectores cada vez más sofisticados. El problema es la carrera armamentística: cada vez que mejoran los detectores, mejoran también los generadores. Es un juego del gato y el ratón tecnológico.
¿Qué pasa con los deepfakes de audio?
Son más fáciles de crear y más difíciles de detectar que los de vídeo. Con apenas 30 segundos de audio original, herramientas como ElevenLabs pueden clonar una voz con precisión inquietante. En contextos militares, esto es particularmente peligroso: una orden falsa por radio podría tener consecuencias tácticas inmediatas. Los protocolos de verificación (códigos de autenticación, palabras clave rotativas) son la principal defensa.
Conclusión: herramientas para el lector escéptico
Cómo verificar contenido militar sospechoso
Antes de compartir o creer contenido sobre conflictos en Oriente Próximo (o cualquier otro), aplica estos filtros:
- Búsqueda inversa de imágenes: usa Google Images, TinEye o Yandex para ver si el contenido aparece en otros contextos
- Verifica la fuente original: ¿quién publicó primero el contenido? ¿Es una cuenta verificada o anónima?
- Contrasta con medios establecidos: si fuera real, ¿lo estarían reportando Reuters, AFP o BBC?
- Analiza los metadatos: herramientas como Jeffrey’s Image Metadata Viewer revelan cuándo y dónde se creó un archivo
- Desconfía de las emociones extremas: el contenido diseñado para indignar o aterrorizar suele ser manipulado
Fuentes confiables para seguir conflictos
En el ecosistema hispanohablante, estas organizaciones mantienen estándares rigurosos de verificación:
- Maldita.es: verificación de bulos en español con metodología transparente
- Newtral: análisis de desinformación con enfoque en contenido audiovisual
- EFE Verifica: servicio de fact-checking de la agencia EFE
- Bellingcat: investigación de código abierto (OSINT) sobre conflictos, disponible en inglés pero con cobertura internacional
La realidad sobre deepfakes y guerra es más matizada que los extremos: ni son una amenaza inexistente ni han convertido el campo de batalla en Matrix. Son una herramienta más en el arsenal de la guerra de información, poderosa pero no omnipotente, detectable pero no siempre detectada. Tu mejor defensa no es la tecnología, sino el hábito del escepticismo informado: preguntarte siempre quién se beneficia de que creas determinado contenido, verificar antes de compartir, y recordar que la niebla de guerra ahora incluye píxeles sintéticos junto al humo real.
Fuentes y verificación
Estudios académicos y técnicos:
- Chesney, R. y Citron, D. (2019). «Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security». California Law Review, 107(6).
- Vaccari, C. y Chadwick, A. (2020). «Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News». Social Media + Society.
- Paris, B. y Donovan, J. (2019). «Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence». Data & Society Research Institute.

Organismos de verificación citados:
- Digital Forensic Research Lab (DFRLab) – Atlantic Council
- Bellingcat Investigation Team
- BBC Monitoring y BBC Verify
- Maldita.es – Sección Maldito Bulo
- First Draft News (ahora Information Futures Lab)
Herramientas de verificación mencionadas:
- InVID-WeVerify: extensión gratuita de navegador para verificación de vídeos
- TinEye y Google Reverse Image Search: búsqueda inversa de imágenes
- Jeffrey’s Image Metadata Viewer: análisis de metadatos de archivos
- Sensity AI y Microsoft Video Authenticator: detectores de deepfakes (acceso limitado)
Última actualización de evidencia: enero 2024. Los casos mencionados han sido verificados mediante fuentes primarias y análisis forense digital independiente.
