Ciberdelito

Cómo funciona la nueva estafa con Inteligencia Artificial: es prácticamente imposible de detectar

Circula un engaño casi imposible de detectar que atenta contra todos los homebanking y nadie puede frenar. ¿Cómo protegerme?

Desde crear empresas en 6 horas hasta desarrollar un nuevo tratamiento para el cáncer, no cabe dudas que la inteligencia artificial es la tecnología del momento y llegó para cambiar la realidad tal como la conocemos. 

Sin embargo, como toda herramienta novedosa y disruptiva, esta puede usarse para el bien como también para el mal. Y en esto último los ciberdelincuentes son grandes expertos.

Ahora, la compañía especializada en ciberseguridad ESET, alertó acerca de una tecnología que permite crear rostros ficticios y así engañar a millones de personas. A modo de comprobar cuan efectiva es esta amenaza, la firma presentó un desafío: "¿cuál de los siguientes rostros pertenece a una persona real?", escribió en su sitio web.

Si tu respuesta es la imagen de la derecha, bien podrías ser una víctima más de este nuevo engaño. A continuación, todos los detalles. 

Estafa con inteligencia artificial: qué son los rostros GAN

Para comprender las estafas que ganan popularidad en la actualidad, primero es necesario indagar acerca de la tecnología GAN (Generative Adversarial Network). Se trata de un tipo de inteligencia artificial, basado en el Deep Learning, que puede generar rostros realistas y otro tipo de imágenes, hasta audio o videos.

Su modus operandi consiste en ingresar datos de entrada, como pueden ser fotos de personas reales, y el modelo ofrece como resultado nuevos rostros con características de apariencia real. 

A pesar de que estas funciones resultan óptimas para industrias como la de videojuegos o efectos visuales, su uso malintencionado trae aparejado grandes riesgos para los internautas.

Bitcoin y Ethereum al borde del abismo: la razón por la que los inversores temen un nuevo cripto invierno

Mi ANSES: calendario de pagos AUH, SUAF, jubilados y pensionados con bono extra y aumento. ¿cuándo cobro?

 "De hecho, estudios publicados ya daban cuenta a fines de 2021 que las imágenes creadas mediante Inteligencia Artificial son cada vez más convincentes y que existe un 50% de posibilidades de confundir un rostro falso con uno real", reveló ESET. 

El gran problema con esto es que los estafadores ahora tienen instrumentos de alta sofisticación para desplegar engaños cada vez más persuasivos. En este sentido, la compañía de ciberseguridad escribió "Pueden crear rostros de personas ficticias que luego son utilizados para armar perfiles de supuestos representantes de servicio al cliente de una empresa. Estos perfiles luego envían correos electrónicos de phishing a los clientes de esa empresa para engañarlos y hacer que revelen información personal". 

Frente a esta situación, ESET brinda los siguientes consejos:

  • Verificar la fuente: Asegurarse de que la fuente de la imagen es confiable y verificar la veracidad de dicha imagen.
  • "No todo lo que brilla es oro": desconfiar de las imágenes que parecen demasiado perfectas. Mayormente las imágenes generadas por este tipo de tecnología tienen un aspecto perfecto y sin defectos, por lo que es importante desconfiar de ellas. Si una imagen o video parece sospechoso, buscar más información al respecto en otras fuentes confiables.
  • Verifica las imágenes y/o videos: Existen algunas herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.
  • Actualiza tus sistemas de seguridad: mantén tus sistemas de seguridad al día para protegerte contra las estafas y el malware.
  • Instala un software antivirus de buena reputación: no solo te ayudará a detectar código malicioso, sino a detectar sitios falsos o sospechosos.
  • No compartas información confidencial: no compartas información personal o financiera con nadie que no conozcas.
Temas relacionados
Más noticias de estafa

Las más leídas de Actualidad

Destacadas de Infotechnology

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.