La guerra en Medio Oriente es uno de los primeros grandes conflictos globales que se desarrollan en la era de la inteligencia artificial (IA). Y esta tecnología, capaz de generar imágenes y audios verosímiles a voluntad, se está usando para difundir de manera masiva contenidos falsos en redes sociales y sitios web.
De esta manera, la IA se ha convertido en un arma sofisticada en la guerra por la información, donde cada facción involucrada trata de establecer su relato sobre el devenir de la contienda. Pero el resultado parece ser, por el momento, una desconfianza general sobre cada foto y video, una “niebla de la guerra” digital en la que impera la incertidumbre.
“La guerra de la información ha sido potenciada exponencialmente por los modelos generativos. Hablamos de la creación de audios y videos hiperrealistas (deepfakes) para realizar operaciones psicológicas a nivel de la población general. Durante la guerra en Ucrania, presenciamos el primer uso en combate de esta tecnología: un video falsificado del presidente ucraniano Volodymyr Zelensky anunciando la rendición de su país subido a un sitio web de noticias hackeado”, señala Eduardo Laens, docente especializado en IA y autor del libro Humanware.
El experto, también CEO de la firma Varegos, agrega: “En Medio Oriente, el impacto fue aún más pernicioso. En redes circulaban millones de reproducciones de videos generados por IA que simulaban ataques aéreos en Tel Aviv o jets sobre Dubái, saturando el entorno de información de falsedades”.
Engaños con IA
El conflicto de Medio Oriente ha desbordado las redes con imágenes de archivo reutilizadas, capturas de videojuegos vendidas como ataques reales y escenas bélicas fabricadas con inteligencia artificial.
El hecho es que los contenidos “fake” no necesitan especialistas ni grandes inversiones para ser creados, dado que muchas herramientas gratuitas ya permiten crear imágenes de gran realismo en base a instrucciones simples (prompts).
Según relevamientos del sitio NewsGuard, videos e imágenes con más de 21,9 millones de reproducciones en X muestran a Irán como el bando dominante del conflicto. Buena parte del material fue difundido por usuarios con simpatías pro-iraníes para inflar la imagen del poderío militar del país.
TikTok es otra de las redes donde los videos falsos, creados o modificados por IA, tienen gran difusión, con decenas de millones de visualizaciones.
Explosiones, fuego y torres de humo exageradas son elementos usuales en los contenidos modificados que circulan actualmente, los que muchas veces no son nada fáciles de diferenciar de los reales.
Por caso, en la primera imagen de esta página se puede apreciar lo que se presentó en redes como un caza israelí F-35 derribado por fuerzas iraníes. La falta de proporción entre el aparato y la gente parada a su alrededor puede ser percibida rápidamente por expertos, pero podría engañar al público general. No obstante, es un detalle que podría ser corregido con un uso más refinado de la IA.
En la segunda imagen, cuentas de redes difundieron un “antes y después” de un presunto ataque a una instalación de radar estadounidense. Pero el ataque nunca ocurrió y el “después”, bastante convincente, fue generado con IA.
De manera similar, buques estadounidenses hundidos, embajadas destruidas y bombardeos con docenas de misiles son imágenes artificiales que hoy pueden sorprender (o convencer) a los desprevenidos.
¿Alguien lo cree?
Estudios recientes coinciden en que, hoy en día, alrededor del 40% de las personas no pueden distinguir videos o fotos creadas con IA de las reales. Las herramientas avanzadas elevan la verosimilitud de los fakes, pero las personas advertidas de que pueden ser expuestas a engaños pueden discernir mejor.
“El daño más insidioso de los deepfakes no es necesariamente que la gente crea la mentira (usualmente son desmentidos rápido), sino que crean el llamado ‘dividendo del mentiroso’. Al inundar el internet con falsificaciones, el público y los líderes políticos comienzan a dudar de absolutamente todo. De repente, evidencia en video real e indiscutible sobre crímenes de guerra o atrocidades es desestimada y etiquetada como ‘generada por IA’, ofreciendo a los perpetradores la excusa perfecta para negar su responsabilidad”, concluye Eduardo Laens.
