Ola de estafas con ChatGPT: cómo evitar los nuevos fraudes con inteligencia artificial
Los chatbots de inteligencia artificial son herramientas muy poderosas, tanto para la producción como para la creación de amenazas digitales.
La inteligencia artificial ChatGPT fue un boom durante el año pasado y hoy ya forma parte de la vida cotidiana de muchas personas, que la utilizan para elaborar textos laborales, emails, traducciones o para resolver dudas.
Esta utilización masiva de ChatGPT y otros chatbots similares ha generado un efecto colateral peligroso: los cibercriminales pusieron el foco en esta tecnología y ahora la utilizan para perfeccionar sus estafas.
Por qué los cibercriminales ahora usan ChatGPT
ChatGPT se convirtió en un arma de doble filo debido a su capacidad de generar textos que muchas veces, la mayoría de ellas, no se pueden diferenciar de los escritos por un ser humano. Debido a esto, los criminales digitales pueden aprovechar esta herramienta para producir contenidos maliciosos diseñados para engañar que resultan verosímiles. Además, esto se puede hacer en cualquier idioma.
Por eso, los expertos recomiendan estar alertas, a la vez que señalan que hay maneras de detectar una estafa en la que se utilizan textos generados por inteligencia artificial.
Fraude con ChatGPT: cuáles son las más peligrosas
Según los expertos de Norton, una empresa especializada en ciberseguridad, a pesar de que OpenAI, el creador de ChatGPT, asegura que su chatbot cuenta con diversas medidas de seguridad para prevenir el uso indebido de su inteligencia artificial, los delincuentes han logrado eludir algunas restricciones. A continuación se presentan algunos de los métodos de ciberataque o estafa que se llevan a cabo con la ayuda de ChatGPT:
- Los delincuentes emplean tácticas engañosas para persuadir a los usuarios a proporcionar información confidencial, como contraseñas o detalles de tarjetas de crédito. Utilizando la inteligencia artificial, pueden crear correos electrónicos que suplantan a bancos o marcas reconocidas, siendo más convincentes al evitar errores de ortografía o gramática.
- Con el chatbot, los criminales pueden desarrollar programas maliciosos (malware) de manera más eficiente y en menos tiempo. Solo se requiere conocimientos básicos en un lenguaje de programación, y la inteligencia artificial se encargará del resto.
- ChatGPT puede contribuir a generar identidades falsas utilizadas en línea para estafar a usuarios de redes sociales o aplicaciones de citas. Estas estafas suelen involucrar tácticas de ingeniería social, pero la inteligencia artificial permite a los delincuentes crear conversaciones más realistas o incluso hacerse pasar por personas específicas.
- Gracias a las capacidades del chatbot de OpenAI, los ciberdelincuentes pueden generar información falsa rápidamente. Simplemente seleccionan un tema popular y producen y difunden textos con datos imprecisos, declaraciones falsas y otros elementos.
Medidas de ciberseguridad para protegerse de estafas con ChatGPT
Las siguientes son las precauciones y medidas que recomiendan los expertos de Norton para evitar fraudes con chatbots de inteligencia artificial:
- Evitar compartir información confidencial, como datos personales o claves bancarias, en una conversación con ChatGPT.
- Utilizar contraseñas seguras y únicas para cada servicio digital (Netflix, redes sociales, email).
- Cambiar las contraseñas periódicamente para mantener las cuentas seguras.
- Mantenerse informado sobre los problemas de seguridad en inteligencia artificial y estafas en línea.
- Activar la autenticación de doble factor en servicios digitales que lo admitan para prevenir el secuestro de cuentas incluso si se obtiene la clave de acceso.
- Utilizar un software antivirus que pueda detectar y eliminar rápidamente programas maliciosos en dispositivos infectados.
Compartí tus comentarios