Tech

Parecen humanos pero no lo son: esta última novedad te va a dar escalofríos

La nueva inteligencia artificial de Microsoft permite crear avatares hiperrealistas a partir de una imagen. ¿Por qué puede ser peligroso?

La tecnológica Microsoft dio un pasó más adelante en la carrera de la inteligencia artificial (IA) y recientemente presentó un nuevo sistema llamado VASA-1, capaz de generar avatares hiperrealistas a partir de imágenes estáticas y fragmentos de voz.

El modelo incorpora herramientas de IA como StyleGAN2 y DALL·E-3 para darle vida a una imagen y hacer que la persona que se muestra en la foto gesticule en sincronización con el audio, a la vez que realiza diferentes expresiones faciales y movimientos de cabeza naturales.  

Si bien VASA presenta grandes oportunidades de uso y aplicabilidad, Microsoft decidió no lanzar este producto de manera comercial debido a los riesgos potenciales que podría conllevar su uso irresponsable; especialmente en lo que concierne a los deepfakes y la suplantación de identidad. 

Microsoft: qué es VASA-1 y para qué sirve

La tecnología detrás de VASA-1 se basa en una red neuronal profunda que fue entrenada con un conjunto de datos de imágenes y vídeos de personas. Esto permite al modelo de inteligencia artificial aprender las complejas relaciones entre el habla, las expresiones faciales y los movimientos de la cabeza, para así generar videos que son indistinguibles de lo real.

"Nuestro modelo de estreno es capaz no sólo de producir movimientos de labios exquisitamente sincronizados con el audio, sino también de capturar un amplio espectro de matices faciales y movimientos naturales de la cabeza que contribuyen a la percepción de autenticidad y vivacidad", escribió al respecto Microsoft en su sitio web. 

La creación de estos videos no se limita a imágenes de personas reales. También se pueden utilizar otros tipos de contenido, como imágenes animadas, pinturas o diseños generados por IA.

Los usuarios en las redes sociales no tardaron en reaccionar a los resultados hiperrealistas, que además de sorprender también causaron preocupación respecto a los potenciales usos de estos modelos para desinformar, suplantar identidades o generar deepfakes. 

Temas relacionados
Más noticias de microsoft

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.