TRIBUNA

¿Qué son y cómo combatir deepfakes?

La tecnología deepfake es un proceso de imitación de esquemas del habla e imágenes realizado con inteligencia artificial para generar realidades paralelas en las que alguien parece estar haciendo o diciendo cosas que nunca hizo o dijo.

Utilizando un algoritmo de aprendizaje automático crea imitaciones a través de instrucciones programadas en una computadora a la que se alimenta con imágenes y audio de una persona para enseñarle a imitar su voz.

Si bien en la actualidad las creaciones son imperfectas y pueden detectarse, la tecnología está progresando rápidamente y en unos años vamos a ver videos sin poder distinguir si son reales o no conformando una de las formas más novedosas de manipulación de medios digitales.

 

La próxima forma de comunicación

 

La desinformación y la falta de rechequeo de los datos hacen que en las redes sociales se divulgue una noticia falsa compartiéndose quizás unas 50.000 veces, cuando la publicación que desmiente la "falsa noticia" con suerte se comparte unas 100 veces. Aun así, el daño causado por ellas puede ser un juego de niños si se compara con el que podría provenir de deepfake: crisis política, social y hasta un incidente de seguridad nacional.

Desde los usos extorsivos, pasando por la desinformación (o divulgación de mentiras) hasta el uso comercial -para personas que voluntariamente quieren ser parte de un video del que no participaron durante su creación-, esta nueva modalidad traerá nuevos desafíos a los investigadores forenses.

El software de edición de fotos, como Photoshop, se viene utilizando hace mucho tiempo para retocar y falsificar imágenes, pero la gente en general está aprendiendo a aplicar el sentido común y el pensamiento crítico cuando se le presenta un contenido poco probable. Hasta ahora, el video se suponía más difícil de alterar de manera sustancial.

El departamento de defensa de los Estados Unidos ya está planteando las primeras herramientas de forensic creadas con IA que detectan videos sintetizados y manipulados mediante aprendizaje automático bajo un programa denominado "Media Forensics". La llegada de estas herramientas puede indicar el comienzo de una batalla entre los falsificadores de videos versus los detectives digitales. Incorporando la capacidad de detectar inconsistencias, problemas de continuidad, integridad o autenticidad, serán parte del nuevo arsenal con que los investigadores trataran de identificar los falsos videos y poder separar lo que es real de lo que no lo es.

A futuro, y para poder mitigar los problemas que acarrearan estos "falsos videos", se deberá pensar no solo en herramientas para trabajar sobre casos específicos, sino también en medidas de aplicación a escala masiva (a nivel Internet) que permitan a los ciudadanos poder detectar este tipo de falsificaciones en tiempo real sin necesidad de recurrir a técnicas sofisticadas.

Noticias de tu interés