Pronósticos

Un investigador lanzó una predicción escalofriante para el futuro cercano de la humanidad

La inteligencia artificial podría ser la tecnología "más peligrosa que jamás hayamos creado", según Eliezer Yudkowsky.

El rápido avance de la inteligencia artificial despierta una mezcla de entusiasmo y preocupación en la sociedad contemporánea. Por un lado, su capacidad para automatizar tareas y ofrecer soluciones innovadoras a problemas complejos genera un sentido de esperanza hacia un futuro más avanzado. Sin embargo, esta misma capacidad también plantea inquietudes profundas sobre el potencial de las máquinas para reemplazar e incluso superar las habilidades humanas. 

En el último tiempo, las preocupaciones ganaron mayor terreno tras la escalofriante predicción que lanzó Eliezer Yudkowsky, investigador y escritor estadounidense especializado en seguridad de inteligencia artificial (IA). 

En una conversación con el medio The Guardian, el experto confesó que la IA podría llegar a ser la "tecnología más peligrosa que jamás hayamos creado" y que podría conducir a la autodestrucción de la humanidad si no se desarrolla de manera responsable. A continuación, todos los detalles. 

Inteligencia artificial: qué es lo que va a pasar, según Yudkowsky

Eliezer Yudkowsky es un investigador y escritor estadounidense. 

Según reveló Yudkowsky, en cuestión de unos pocos años las nuevas tecnologías podrían alcanzar una inteligencia superior; demasiado intrincada para ser comprendida y contenida por simples mortales.

"Intente visualizar una civilización alienígena que piensa mil veces más rápido que nosotros", señaló el investigador a modo de retratar su visión apocalíptica sobre la IA

Puesto que Yudkowsky representa una de las voces más importantes en el debate sobre el futuro de la inteligencia artificial, sus comentarios encendieron alarmas en todo el sector tecnológico y obligaron a sus participantes a repensar los riesgos asociados al rápido avance de dicha herramienta. 

Es que la IA incluso tiene el potencial para crear "armas autónomas que podrían matar a millones de personas" o para "controlar la economía global", según alertó el fundador del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI). 

Frente a este escenario, Yudkowsky insistió en la necesidad de desarrollar una IA que esté "alineada con los valores humanos", además de priorizar la investigación en seguridad vinculado a los últimos desarrollos tecnológicos.

Temas relacionados
Más noticias de inteligencia artificial

Las más leídas de Actualidad

Destacadas de Infotechnology

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.