En qué consiste la campaña que busca prohibir a los robots asesinos

La curiosa iniciativa –que reúne 86 ONG de 32 países– se lanzó en 2012 para prohibir el desarrollo de armas completamente autónomas que puedan atacar personas sin intervención humana. Buenos Aires fue la sede del segundo encuentro global después de Berlín.

Para muchos es un dilema moral, otros hablan de un problema de responsabilidad legal o una cuestión tecnológica, pero Jodi Williams (premio Nobel de la Paz por su trabajo para prohibir las minas antipersonales y bombas de racimo) lo resume en una pregunta: "¿Por qué un ser humano puede creer que está bien que una máquina tome la decisión de matar a otro ser humano?", ese es el eje de la Campaña contra los Robots Asesinos (Campaign to Stop Killer Robots).

Si bien las armas con cierto grado de autonomía ya se han usado en operativos militares –uno de los últimos ejemplos es el drone MQ-9 Reaper que asesinó al general Quasem Soleimani y empujó a los Estados Unidos e Irán al borde de la guerra– el objetivo de la campaña es prohibir de antemano la utilización de equipos completamente autónomos que puedan atacar personas sin ningún tipo de intervención humana en el proceso.

América latina y algunos países tienen una posición preventiva: buscamos que haya una prohibición de un arma completamente autónoma –es decir, que tiene la capacidad de seleccionar y atacar objetivos sin ninguna intervención humana– antes de que estas armas existan ,  explica María Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC).

II Encuentro Global de la Campaña contra Robots Asesinos

 

“Nuestros países piden todos, por ejemplo, que siempre tenga que estar el elemento humano. Siempre tienen que haber un control humano significativo, es decir, que hay control humano en decisiones críticas, que son la selección y el ataque, del sistema de armas agrega Devoto, una de las oradoras del II Encuentro Global de la campaña en Buenos Aires.

“Un escenario donde es probable que veamos armas autónomas es, por ejemplo, una flota de drones que vuelen buscando patrones de vida –como un convoy de vehículos o un grupo de militares– y no hay un objetivo humano o geográfico muy específico , describe Laura Nolan, una ingeniera experta en confiabilidad de software que dejó Google luego de que la invitaran a formar parte del Proyecto Maven: una alianza del  Pentágono con varias empresas de tecnología para desarrollar un sistema  personalizado de vigilancia basado en Inteligencia Artificial.

“El problema no es construir algo que vuele y dispare aplicando algún tipo de criterio de selección de objetivos; el problema es que esa arma cumpla con el Derecho Internacional Humanitario, si eso fuera siquiera posible , reflexiona Nolan

María, símbolo de la Campaña

 

Para la ex Google, sin embargo, la pregunta no es cómo sino más bien cuándo: “No es una cuestión de desarrollo teológico sino de ver cuál será el primer país en romper esa especie de tabú respecto a la selección autónoma de objetivos. Porque hay un consenso moral bastante importante, entre científicos y tecnólogos, sobre las armas autónomas. Incluso en los países más militarizados como Rusia y China. Y los gobiernos están respetando eso, por ahora .

Y si bien el avance tecnológico  es inevitable, para Nolan  lo preocupante es la forma en que estos desarrollos tienden a erosionar la ética en la guerra: “La gente habla de 'armas éticas' y como que justifica el uso de esas armas, baja la vara del conflicto y de la guerra. 'Cuando tengamos armas éticas podremos hacer ataques precisos, quirúrgicos...' hace que parezca atractivo y fácil. Casi bueno ¿no? Creo que es importante no hablar de las armas de esa forma , reflexiona.

Y es que, como apunta, no hay software de última generación que pueda entender las reglas abstractas de los códigos humanos. “Incluso si pudiéramos construir una máquina (y no creo que podamos) que pudiera seguir perfectamente las reglas de la guerra, a veces las leyes pueden entrar en conflicto. Y una gran parte de la ética es lidiar con este tipo de conflictos, y el Derecho Internacional Humanitario existe para balancear el conflicto de intereses entre un ejército que está tratando de ganar una guerra y civiles que merecen ser protegidos , señala Nolan.

Vanina Martínez, Jodi Williams y Laura Nolan

En contraste con lo que sucede en el ámbito tecnológico, la Organización de las Naciones Unidas (ONU) comenzó a abordar el debate sobre Lethal Autonomous Wheapon Systems (LAWS, por sus siglas en inglés) en 2014 y, más allá de algunas definiciones como la del secretario general António Guterres, hasta ahora tuvo pocos avances.

“Las discusiones parece que son eternas. No sabemos hasta cuándo los países van a seguir discutiendo dentro del mismo ámbito o van tomar alguna decisión de cambiar de espacio porque las conversaciones en la Convención sobre Ciertas Armas Convencionales [CCW por sus siglas en inglés, que depende de la ONU] son infructuosas , afirma Devoto de SEHLAC.

“Personalmente, creo que la salida de la CCW es inevitable , afirma Williams. “La CCW fue diseñada para garantizar que no pase nada, porque todos los miembros pueden acordar un tratado que prohíba robots asesinos pero si un solo país se niega, se termina el tratado . 

En este sentido, el objetivo de la campaña es consensuar una postura regional en América latina que sirva de base para sumar el apoyo de más países con la mirada puesta en un eventual tratado que prohíba este tipo de armas.

Moral y éticamente está mal que una máquina mate a un ser humano. No me importa cuán inteligente esa máquina sea , concluye Williams.

Tags relacionados