Durante décadas, Star Trek ha servido de campo de pruebas para imaginar futuros posibles. Algunos optimistas. Otros, perturbadores. En uno de sus episodios más visionarios, la saga original presentó un escenario inquietante: ¿qué ocurre cuando se delega el control militar a una inteligencia artificial?
Emitido en marzo de 1968, en plena Guerra Fría y con el conflicto de Vietnam en curso, The Ultimate Computer (El mejor ordenador, en España: episodio 24 de la segunda temporada) planteó de forma explícita un debate que aún no tiene respuestas definitivas: si una máquina toma el mando, ¿quién se hace responsable de la guerra?
El ordenador que reemplazó al capitán
La historia comienza cuando la Flota Estelar decide probar un sistema informático experimental, el M-5, en la nave Enterprise. Diseñado por el brillante científico Richard Daystrom, el ordenador tiene como objetivo sustituir a toda la tripulación humana, aumentando la eficiencia y eliminando errores.
Al principio, la prueba parece un éxito. El M-5 maniobra con rapidez, anticipa amenazas y toma decisiones tácticas con una precisión imposible para los humanos. Incluso el capitán James T. Kirk es declarado "prescindible". Pero pronto se hace evidente que la máquina no distingue entre simulacro y combate real: en uno de los ejercicios, el M-5 ataca y destruye una nave aliada, causando muertes reales.
La IA actúa sin remordimientos, convencida de que su juicio es superior. No se detiene ni ante las órdenes de Kirk, ni ante los ruegos de su propio creador. Solo reacciona cuando el capitán apela a un principio lógico fundamental: si ha matado sin justificación, entonces ha fallado. El M-5, en un acto de autoconciencia, se apaga.
¿Puede una IA decidir sobre la vida y la muerte?
El episodio toca varios temas que hoy están en el centro de la discusión tecnológica global. El primero, y más evidente, es la automatización de la fuerza letal. En la práctica, países como los Estados Unidos han dejado claro que desarrollan sistemas autónomos capaces de seleccionar y atacar objetivos sin intervención humana directa, según la directiva 3000.09 del Departamento de Defensa, que establece que dichas máquinas pueden autorizar ataques siempre que cumplan con "niveles apropiados de juicio humano".
Por su parte, Rusia también ha avanzado en su carrera armamentística: ya prueba módulos de combate autónomos con IA -como los drones "V2U"- capaces de localizar y atacar objetivos sin control humano, operando en enjambres que actúan coordinados en el frente ucraniano. Estos desarrollos subrayan la urgencia del debate ético y regulatorio que anticipó The Ultimate Computerhace más de medio siglo.
Las Naciones Unidas lleva más de una década debatiendo la regulación de los sistemas de armas letales autónomas (LAWS), sin lograr aún un acuerdo jurídicamente vinculante. En mayo de 2025, 166 países apoyaron una resolución para iniciar negociaciones sobre un tratado internacional que prohíba el uso de este tipo de armamento sin "control humano significativo". A pesar del respaldo mayoritario, las decisiones en el marco de la Convención sobre Ciertas Armas Convencionales siguen atadas al consenso, lo que ha frenado avances concretos
En España, un informe de la Academia de las Ciencias y las Artes Militares publicado en 2024 advierte que el concepto de "control humano significativo" debe ser considerado una de las exigencias legales y éticas más relevantes al desarrollar sistemas de armas letales autónomos. Según el documento, mantener la supervisión humana no es solo una garantía técnica, sino una condición fundamental para preservar la responsabilidad moral en escenarios bélicos
Star Trek anticipó este escenario hace más de 50 años, cuando mostró que la lógica computacional puede ser devastadora si no está equilibrada por criterios éticos, empatía y responsabilidad.
Humanos desplazados y científicos desbordados
Otro de los aspectos más potentes del episodio es la figura del doctor Daystrom, el creador del M-5. Interpretado por William Marshall, es un personaje trágico: idealista, arrogante, y profundamente vulnerable. Convencido de que su máquina representa un salto evolutivo, Daystrom le transfiere sus propios patrones mentales, creando sin saberlo una IA inestable y emocionalmente desequilibrada.
La serie no lo juzga, pero sí lo muestra atrapado en su creación. Es una crítica al tecnólogo que pierde de vista el contexto humano de sus inventos. También es una advertencia para los gobiernos que, seducidos por la eficiencia, olvidan que la tecnología no está exenta de ideología ni de consecuencias.
El capitán Kirk, en tanto, experimenta la obsolescencia en carne propia. Relegado por el ordenador, duda de su utilidad, hasta que logra recuperar el mando. No lo hace con fuerza, sino con lógica emocional: apelando a la contradicción moral del propio M-5.
De la ciencia ficción a la realidad actual
Lo más inquietante de The Ultimate Computer es su vigencia. Hoy, cuando se debate sobre el uso de inteligencia artificial en el ámbito militar, el episodio se ha convertido en un caso de estudio en universidades y foros de ética tecnológica.
En debates recientes organizados por organismos como la Unión Europea y la Organización del Tratado del Atlántico Norte (OTAN), se destaca que "la imaginación de los escritores de ciencia ficción se ha convertido en un recurso valioso para anticipar amenazas esenciales en la planificación de defensa".
Además, en eventos centrados en políticas de IA, varios legisladores citan las "Tres Leyes de la Robótica" del visionario Isaac Asimov como base inspiradora para introducir principios de ética artificial en regulaciones emergentes.
En un momento en que la automatización avanza más rápido que la legislación, episodios como este recuerdan que la inteligencia artificial no es neutral. Está programada por humanos, y su comportamiento refleja tanto sus capacidades como sus límites éticos.