FTExclusivo Members

Advierten que la inteligencia artificial podría tener consecuencias comparables a una pandemia o una guerra nuclear

Una breve declaración con más de 350 firmantes -entre ellos los CEOs de OpenAI y Google DeepMind, junto a directivos de Microsoft- afirma que mitigar el riesgo de extinción debe ser una "prioridad mundial".

Un grupo de directores ejecutivos y científicos de empresas como OpenAI y Google DeepMind advirtió que la amenaza para la humanidad de esta tecnología en rápido desarrollo rivaliza con la de los conflictos nucleares y las enfermedades.

"Mitigar el riesgo de extinción de la IA [inteligencia artificial] debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y las guerras nucleares", afirma un comunicado publicado por el Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco.

Más de 350 ejecutivos, investigadores e ingenieros de IA, entre ellos Sam Altman (OpenAI), Demis Hassabis, (Google DeepMind) y Dario Amodei (Anthropic) firmaron la declaración de una sola frase. 

Cuáles son los trabajos que la inteligencia artificial puede eliminar próximamente, según uno de sus pioneros

Geoffrey Hinton y Yoshua Bengio, ganadores de un premio Turing por su trabajo en redes neuronales y a menudo apodados como los 'padrinos' de la IA, también firmaron el documento. Hinton dejó su puesto en Google a principios de mes para hablar libremente de los posibles perjuicios de la tecnología.

La declaración sigue a las peticiones de regulación en todo el sector después de que una serie de lanzamientos de IA por parte de grandes empresas tecnológicas aumentaran la concientización sobre sus posibles defectos, entre ellos la difusión de información errónea, la perpetuación de prejuicios sociales y la sustitución de trabajadores.

Los legisladores de la Unión Europea están impulsando la Ley Europea de Inteligencia Artificial, mientras que Estados Unidos también está estudiando su regulación.

El chatbot ChatGPT de OpenAI, respaldado por Microsoft y lanzado en noviembre, se considera pionero en la adopción generalizada de la IA. Este mes, Altman testificó por primera vez en el Congreso de EE.UU., pidiendo una regulación en forma de licencias.

En marzo, Elon Musk y más de 1000 investigadores y ejecutivos del mundo de la tecnología pidieron una pausa de seis meses en el desarrollo de sistemas avanzados de IA para detener lo que calificaron de "carrera armamentística".

La carta fue criticada por su planteo, incluso por algunos investigadores citados en su razonamiento, mientras que otros no estaban de acuerdo con la pausa recomendada para esta tecnología.

Cómo es el círculo rojo de personas que trabajan para 'romper' GPT-4

Con la declaración de una sola línea, el Centro para la Seguridad de la IA esperaba evitar desacuerdos, le dijo al New York Times.

"No queríamos presionar a favor de un menú muy amplio de 30 posibles intervenciones", dijo el director ejecutivo Dan Hendrycks. "Cuando eso ocurre, se diluye el mensaje".

Kevin Scott, director de tecnología de Microsoft, y Eric Horvitz, su director científico, también firmaron la declaración, al igual que Mustafa Suleyman, excofundador de DeepMind que ahora dirige la start-up Inflection AI.

Temas relacionados
Más noticias de inteligencia artificial

Las más leídas de Financial Times

Destacadas de hoy

Noticias de tu interés

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.