Inteligencia artificial

Peligro ChatGPT: la policía europea advierte sobre el riesgo de usarlo con fines maliciosos

La Europol ha realizado un informe en el que apuntan sobre los peligros que la inteligencia artificial puede conllevar si la utilizan delincuentes.

En esta noticia

Si bien ChatGPT ha comenzado a utilizarse con multiplicidad de fines que proponen facilitar tareas y hasta trabajos de los usuarios, también ha encendido alarmas en lo que respecta a materia seguridad.

Un reporte de la Europol ha advertido sobre los posibles peligros si esta herramienta es utilizada por delincuentes. Qué dijo la policía europea y cómo protegerse.

Atentos fans de Spotify y Apple: estos son los mejores podcast de viaje para planear las vacaciones 2023

Apple lanzó el programa "Pay Later" para financiar la compra de sus iPhone, ¿cuándo llega a España?

La explosión en popularidad del chatbot de inteligencia artificial (IA) no solo trajo consigo un sinfín de aplicaciones en diversos campos, sino también estafas y un temor generalizado

ChatGPT: la advertencia de la Europol

Los avances de la inteligencia artificial. (Foto: archivo Shutterstock).

La agencia europea organizó en días pasados una serie de talleres para abordar el potencial negativo del chatbot. Luego, en el informe "ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley", la Europol ha relatado cómo la IA ayudaría a delincuentes a cometer delitos.

 La lista de crímenes es variada e incluye fraude, suplantación de identidad, hackeos, terrorismo, propaganda y desinformación.

De acuerdo con la Europol, los modelos de lenguaje extenso (LLM) como ChatGPT han demostrado ser capaces de realizar trabajos creativos. Si bien esto se traduce inmediatamente en beneficios para usuarios particulares y empresas, también, según advirtieron, representan un riesgo para su seguridad. 

El reporte afirma que la habilidad de reproducir textos que parecen auténticos facilita la tarea para cometer phishing. Los estafadores no tendrían que preocuparse entonces por revisar el estilo y gramática, incluso podrían solicitar a ChatGPT que adopte un estilo definido al redactar un correo fraudulento.

ChatGPT en tu Apple Watch: cómo utilizar la inteligencia artificial de Open IA desde tu muñeca

WhatsApp Web se cierra solo: esta es la solución

"Con la ayuda de los LLM, estos tipos de phishing y fraude en línea se pueden crear de manera más rápida, mucho más auténtica y a una escala significativamente mayor", ha detallado la Europol.

Además, otro de los peligros más fuertes, según advierte la policía, es que, si un delincuente potencial no conoce nada acerca de un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación. Solo basta hacer una pregunta contextual y será "significativamente más fácil" comprender y llevar a cabo los delitos.

ChatGPT es utilizado en todo el mundo. (Foto: archivo).

Peligro con ChatGPT: las recomendaciones de la Europol

La Europol enlista una serie de lineamientos a seguir por parte de la compañía de investigación OpenAI y otras empresas que desarrollan modelos LLM. 

Sumado a las prácticas de IA responsable, la agencia hace hincapié en una regulación a futuro. Actualmente, la Unión Europea trabaja en una propuesta de ley para regular aplicaciones de inteligencia artificial.

Temas relacionados
Más noticias de ChatGPT