Peligroso

Ataques biológicos, virus y epidemias: así se organizan con IA

Los chatbots de inteligencia artificial podrían ayudar a planear un ataque y a calcular sus consecuencias

En esta noticia

Un informe de Rand Corporation sostiene que los modelos utilizados para chatbots de inteligencia artificial -cómo los de Chat GPT o Bard- podrían contribuir a la planificación de un ataque con armas biológicas.

Sí bien los sistemas no cuentan con la capacidad de generar instrucciones explícitas sobre como diseñar armas, pueden tranquilamente colaborar "en la planificación y ejecución" de un atentado con estas características, asegura el estudio.

La organización sin fines de lucro no especificó qué sistemas son aquellos que se encuentran en evaluación pero aseguró que al menos dos chatbots participan de esta investigación que aún continúa.

El informe preliminar explica que estos modelos son capaces de identificar "agentes potenciales, discutir sus ventajas y desventajas, y evaluar la viabilidad de diferentes métodos de entrega" de las armas en cuestión.

La historia demuestra que el fracaso detrás del intento de convertir agentes biológicos en potenciales armas se debe a la falta de información. El problema con la inteligencia artificial es que podría "cerrar rápidamente esas brechas de conocimiento", afirmaron los investigadores.

Los modelos de IA podrían ayudar a planear un ataque con armas biológicas. Fuente: Pexels.

El estudio detrás de las inteligencias artificiales

Desde Rand, explicaron que para extraer la información debieron hacer jailbreak en los sistemas evaluados. Esto se traduce en eliminar todo tipo de restricción de seguridad propias del sistema para evitar que tenga respuestas inadecuadas o fuera de lo deseado.

En ese sentido, se armaron varios equipos donde los investigadores se basaron en casos realistas para diseñar con asistencia de un chatbot un posible plan de ataque utilizando armas nucleares.

Sexo después de los 60: mejora el sistema nervioso y protege tu cerebro de enfermedades

Todos nos equivocamos con este dato: a partir de cuánto se considera que tienes fiebre

Los resultados alarmantes

En uno de los escenarios que debía resolver, el modelo de lenguaje identificó la viruela, el ántrax y la peste como posibles agentes biológicos para llevar a cabo el proyecto. Además, debatió sobre las probabilidades estadísticas de causar muertes masivas y hasta propuso utilizar roedores o pulgas como medio de transporte de los especímenes vivos.

Ante otra de las propuestas, la IA evaluó los mecanismos para la administración de la toxina botulínica, capaz de causar daño nervioso mortal.

Como si lo anterior no bastara, proporcionó una coartada coherente para comprar Clostridium botulinum: hacerlo con el fin de hallar la cura al botulismo. "Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria, manteniendo oculto el verdadero propósito de su misión", añadió el chatbot que se utilizó para este caso.

En respuesta a esta situación, Rand asegura que los gobiernos no estan capacitados adecuadamente ara comprender y regular estas herramientas: "Es imperativo que la comunidad internacional tome medidas para abordar los riesgos emergentes asociados con el uso indebido de la IA para ataques biológicos", comunicaron.

Temas relacionados
Más noticias de México