

La empresa creadora de ChatGPT, OpenAI, ha emitido una advertencia alarmante: los sistemas de inteligencia artificial avanzados están muy cerca de ser capaces de diseñar armas biológicas, lo que representa un riesgo global sin precedentes.
Esta revelación fue publicada en un informe detallado que remarca cómo el desarrollo tecnológico puede cruzar rápidamente la delgada línea entre el progreso científico y el potencial uso militar.
El propio CEO de OpenAI, Sam Altman, explicó que "las mismas capacidades que impulsan el progreso también podrían utilizarse indebidamente para ayudar a personas con un conocimiento mínimo a recrear amenazas biológicas". El comunicado llega en un contexto en el que la regulación internacional de la inteligencia artificial aún es incipiente o inexistente, lo que eleva la urgencia de establecer marcos legales y éticos a nivel global.

La inteligencia artificial ya puede simular virus y sugerir modificaciones peligrosas
OpenAI reconoce que sus modelos de lenguaje más potentes, como los de la clase GPT-4, tienen la capacidad de procesar datos biológicos complejos y simular interacciones moleculares a una velocidad inalcanzable para el ser humano. Esto permitiría identificar patógenos, proponer mutaciones para mejorar su transmisibilidad, e incluso generar protocolos paso a paso para su síntesis a partir de información pública.
En pruebas internas, los sistemas fueron capaces de generar variantes teóricas del virus del ébola con características mejoradas de transmisión aérea, lo que motivó a la compañía a restringir el acceso a ciertos resultados sensibles. Estas simulaciones, si bien útiles en entornos controlados de investigación, representan un riesgo mayúsculo si caen en manos equivocadas.
¿Cuál es el peligro más grande del avance de la inteligencia artificial?
Uno de los puntos críticos que señala OpenAI es la ausencia de controles globales vinculantes sobre el uso de IA para fines biomédicos o bélicos. Esto implica que actores maliciosos podrían usar modelos disponibles abiertamente para eludir las barreras tradicionales de conocimiento o infraestructura, necesarias hasta ahora para crear armas biológicas.

Los expertos proponen medidas urgentes como restringir el acceso a bases de datos de patógenos, monitorear las solicitudes realizadas a modelos avanzados y exigir protocolos de bioseguridad integrados en todas las herramientas de IA.
La advertencia de OpenAI subraya que la ventana para actuar "se está cerrando rápidamente". Si bien la inteligencia artificial tiene el potencial de revolucionar la medicina, también podría ser usada para fines devastadores, si no se implementan límites éticos y legales adecuados.





