Elon Musk contra la ONU: "Tienen que prohibir a los robots asesinos"

 “La Inteligencia Artificial es más peligrosa que Corea del Norte , dijo el CEO de Tesla.

El CEO de Tesla y SpaceX, Elon Musk, ha dicho oportunamente que “la inteligencia artificial (IA) es un riesgo mayor para el mundo que Corea del Norte . Ahora, el multimillonario y entrepreneur se ha unido a 100 roboticistas y expertos en IA que le reclaman a las Naciones Unidas que prohíban la más mortífera de las IA: las armas autónomas.

En una carta publicada ayer, Musk y el experto en IA de Alphabet, Mustafa Suleyman, y otros 114 firmantes, advierten que “una vez desarrollada, estas armas permitirán que los conflictos armados tomen una escala nunca vista, escalas que pueden llegar a ser más rápidas que lo que los humanos podemos comprender . Según la misiva, “estas pueden ser armas de terror, armas que los déspotas y los terroristas podrían usar con poblaciones inocentes, y armas que pueden ser hackeadas para funcionar de maneras poco deseables .

Leer más: Argentina tiene lo que Tesla más necesita para expandir su negocio

La carta, que incluye firmas de docenas de organizaciones de casi 30 países (incluidos China, Israel, Rusia, Gran Bretaña, Corea del Sur y Francia), fue enviada a la Convención de las Naciones Unidas en Ciertas Armas Convencionales, cuyo propósito es evitar el sufrimiento innecesario de los combatientes y un efecto indiscriminado en la vida de los civiles. Fue lanzada luego de una conferencia de IA que tuvo lugar en Melbourne, Australia, antes de que tenga lugar las discusiones formales de la ONU sobre armas autónomas.

Los firmantes agregaron que la ONU debe impedir una nueva carrera armamentista y evitar los “efectos desestabilizantes de una tecnología emergente. De hecho, en la zona desmilitarizada entre las dos Coreas hay “guardias robots , según surge de un reporte publicado por la oficinas de Desarme. Específicamente, las fuerzas armadas surcoreanas están utilizando una herramienta de vigilancia, llamada SGR-AI, que puede detectar, seguir y disparar a los intrusos. El robot les sirve para reducir el estrés en miles de soldados ubicados a lo largo de una frontera de 255 kilómetros. Si bien aún no opera de manera autónoma, podría hacerlo, según el informe citado por The Washington Post. “El sistema puede instalarse en fronteras, y también en lugares críticos como aeropuertos, plantas de energía y bases militares , dice la descripción del sistema de armas que fabrica Samsung.

“No hay estándares multilaterales o regulaciones que cubran las aplicaciones militares de la IA , dicen el reporte. Según Human Rights Watch, sistemas de armas autónomos están siendo desarrollados en países como los EE.UU, China, Israel, Corea del sur, Rusia e Inglaterra. Este tipo de armas “cruzan una frontera moral , dicen desde la organización de derechos humanos, porque no habrá seres humanos para decidir sobre a qué blancos atacar.

 

Musk versus la IA

En los últimos años, las advertencias de Musk se han hecho cada vez más llamativas, tanto así que provocó la respuesta del CEO de Facebook, Mark Zuckerberg, el mes pasado. “Sus predicciones son irresponsables , dijo. El CEO de Testla contestó que la comprensión que Zuckerberg tiene de la IA es “limitada .

Leer más: ¿Cuáles son las tecnologías más “vendehumo de hoy?

El mes pasado, Musk le dijo a un grupo de gobernadores estadounidenses que tienen que empezar a regular la IA, a la que llamo “un riesgo fundamental para la existencia del ser humano . “Los gobiernos tienen que lograr una mejor comprensión de la inteligencia artificial; una vez que lo hagan, las personas estarán asustadas, como deberían estarlo ya , agregó. “La IA es un riesgo fundamental para la civilización de una manera en que los accidentes de autos, los choques de aviones, drogas falladas y comida en mal estado jamás lo ha sido. Estos último pueden ser perniciosas para un grupo de individuos en sociedad, pero no eran peligrosas para la sociedad como un todo .

Temas relacionados
Más noticias de Samsung

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.
Nombre