La primera piedra la tiró Sam Altman, nada menos. En una entrevista de fines del año pasado, el capo de OpenAI, creadora de los modelos de IA generativa más populares, aseguró que durante 2025 la singularidad sería posible. Es decir, ese momento de inflexión en el que la IA supera a la inteligencia humana. Nuestras paranoias hicieron el resto: décadas de películas y relatos de ciencia ficción en el que las máquinas, apenas toman el control, se deshacen de la especie humana hicieron mella en el ideario colectivo. Hal-9000, Terminator, Ultron... la lista es tan interminable como escalofriante.
Pero una cosa es tener la sensación de que hay un monstruo en el placar y otra muy diferente, que el monstruo golpee la puerta. ¿Estamos realmente tan cerca de ser superados intelectualmente por las máquinas? ¿Cómo sería ese hipotético futuro?
La IA ya genera día a día dilemas que se reproducen a tal velocidad que, como sociedad, no somos capaces de resolver. Desde su impacto en el trabajo y la producción hasta su uso para las fake news o, fundamentalmente, su papel como desalentador del aprendizaje, la escritura o la lectura.
Ahora llevemos eso al extremo: una superinteligencia capaz de procesar y sintetizar información a velocidades y escalas inimaginables para la mente humana, de resolver en horas problemas que hoy consideramos irresolubles, que podría encontrar curas para todas las enfermedades, que generaría debates sin precedentes sobre ética, derecho y moralidad... O, mirado con el vaso medio vacío, que tome acciones con consecuencias catastróficas e irreversibles para la humanidad, que genere desempleo estructural masivo o que amenace la propia existencia humana.
Hacia un futuro singular
El científico Ray Kurzweil, autor del libro con un título sin eufemismos (La singularidad está cerca) predice que las computadoras "empatarán" el cerebro humano en 2029 y que, en 2045, nos habremos integrado para crear superhumanos. Kurzweil adoptó el concepto de singularidad enunciado por primera vez por el matemático y físico húngaro John von Neumann, en un lejanísimo 1957.
¿Qué genera esta perspectiva? Para Daniel Yankelevich, fundador de la consultora de transformación digital Practia y director de Fundar, organización dedicada al diseño de políticas públicas con foco en el desarrollo, representa "una mezcla de escepticismo y excitación".
Por un lado, considera que "es maravillosa la idea de crear algo inteligente y consciente, llevar a la realidad el mito del Gólem o Frankenstein, algo que la humanidad buscó por siglos". Por el otro, explica que la definición misma de "singularidad" representa un problema. "¿Sabe realmente una calculadora hacer cuentas? ¿Qué es saber, tener consciencia, aprender, razonar? Nos cuestan tanto estas definiciones que hace que no esté seguro de que exista ese punto llamado ‘singularidad'", explica.
"La singularidad me produce una combinación poderosa de asombro, responsabilidad y urgencia: la idea de que una IA supere nuestras capacidades cognitivas no es solo un hito técnico, es un punto de inflexión de la humanidad", dice Fabio Grigorjev, chief IA officer de Evoltis, empresa especializada en experiencia de los clientes. "En lo personal, me invita a revisar qué entendemos por conciencia, por creatividad y por lo propiamente humano, al tiempo que me recuerda que la dirección en la que llevamos esta tecnología debe ser cuidadosamente elegida: no todo lo posible es deseable y no todo lo deseable será posible sin consecuencias profundas", dice.
La emoción y la razón
Las emociones mezcladas se repiten entre todos y cada uno de los entrevistados.
"La veo como la continuidad lógica de la trayectoria de la inteligencia, un punto de inflexión que desafía nuestras concepciones actuales de la existencia y la conciencia", dice Andrea Mandelbaum, CEO de Sannare, equipo multidisciplinario compuesto por médicos, enfermeras, especialistas en experiencia del cliente, ingenieros y científicos de IA de nivel mundial para crear una plataforma de colaboración en salud. "Desde mi formación en IA, me fascina el potencial exponencial de la automejora recursiva y las implicaciones tecnológicas que esto conlleva, pero desde una perspectiva filosófica me impulsa a considerar las ramificaciones éticas, sociales y existenciales", asegura.
"La singularidad, si llega, lo hará paulatinamente y de manera tan silenciosa que no va a parecer ciencia ficción", señala Lautaro Carmona, CEO de Unitech, especializada en soluciones de transformación digital cognitiva para poderes judiciales. "No me la imagino como un momento Terminator, sino como algo más sutil: un día nos vamos a despertar y y nos vamos a dar cuenta de que los sistemas que usamos ya son más inteligentes que nosotros y lo naturalizaremos. Por eso, de la singularidad me inquieta más lo imperceptible que lo apocalíptico", aporta.
Hanna Schiuma, socia de Blue Swan, coincide. "Estoy familiarizada con el concepto de singularidad hace más de una década y me cuesta pensar que haya un evento disruptivo, un ‘amanecer' en el que la IA se despierte y tome conciencia", explica. Blue Swan es un colectivo de profesionales especialistas en distintas áreas de la tecnología blockchain, AI, finanzas y ciencias del comportamiento que investiga temas en la frontera del conocimiento, para proponer nuevos usos de la IA.
"Personalmente, me atraviesa profundamente y me lleva a esbozar preguntas tales como qué significa ser humano en un mundo donde una inteligencia no biológica puede superarnos en capacidad de análisis, creatividad o resolución de problemas o si llegará a contar con la sensibilidad, empatía y ganas de superarse continuamente que identifica a la especie humana", asevera Santiago Blanco, cofundador de la consultora tecnológica Ingenia.
De cuánto estamos hablando
A la hora de estimar qué tan cerca estamos de la singularidad, los expertos consultados coinciden en un punto: depende de qué definición de "singularidad" usemos.
"No sé si llegaremos a una superinteligencia en los próximos años, pero sí creo que veremos sistemas muy avanzados que nos van a ayudar en áreas como la medicina, la educación o la toma de decisiones complejas", especifica Joel Rodríguez, científico de datos del centro de excelencia especializado en IA de SAP.
"Si bien algunas formas suaves de singularidad están en desarrollo, una superinteligencia general autónoma, con capacidad de mejorar sus propias capacidades a ritmo exponencial y tomar decisiones de forma independiente no parece factible ni en el corto ni en el mediano plazo", sentencia Charly Lizarralde, cofundador y CEO de la desarrolladora de soluciones de IA 7Puentes.
"Estamos en la antesala de lo que podría llamarse una ‘presingularidad funcional': sistemas que, si bien no son conscientes, ya nos superan en tareas específicas (traducción, generación de lenguaje, diagnóstico médico, análisis de datos)", analiza Grigorjev. "En el mediano plazo, si la tendencia de escalamiento de modelos y el diseño de arquitecturas multimodales continúa al ritmo actual, podríamos estar cerca de una IA que imite aspectos de la cognición humana de forma competente", agrega.
"Si la idea es una IA que tome decisiones autónomas, empuje su propio desarrollo y tome decisiones por sí misma en cuanto al avance tecnológico, no lo veo como algo tan lejano: ya tenemos sistemas que programan y arman arquitecturas autónomas de agentes que compiten, programan otros agentes y toman decisiones en función de determinados objetivos, pero si pensamos en máquinas que adquieren consciencia, estamos lejos", sentencia Yankelevich, quien agrega que "durante años pensamos que el Test de Turing era la verdadera manera de saber si una máquina era inteligente, pero hoy descubrimos que no alcanza: por eso, posiblemente la noción de singularidad se irá construyendo, hoy la imaginamos de una forma y en unos años la veremos de otra".
"Creo que estamos bastante cerca, incluso en el corto plazo", dice Schiuma. "Siempre se habló de 2030 como esa fecha icónica o épica, pero vemos que los modelos están aprendiendo de formas distintas a como lo hacían antes, por ejemplo, las capacidades de memoria de los actuales son muy superiores y, además, ya rastrearon todo Internet, lo que significa que toda la data disponible que se utiliza para entrenarlos ya fue absorbida, por lo que el salto cualitativo podría llegar antes de lo previsto", afirma.
Entre avances y preparativos
"En los últimos años nos hemos volcado por completo al mundo digital, delegando en algoritmos decisiones clave: qué mirar, qué leer, con quién interactuar", dice Adrián Garelik, CEO de la plataforma de streaming basada en tecnología web3 Flixxo. "Esta tendencia revela una paradoja inquietante: mientras avanzamos hacia la creación de una IA capaz de despertar conciencia, pareciera que los humanos estamos anestesiando la nuestra", agrega.
"Me entusiasma lo que se viene, pero como seres humanos debemos estar atentos a no dejar de usar nuestra inteligencia ni renunciar a nuestro pensamiento crítico, creatividad, sensibilidad y la capacidad de decidir", dice Cristian Deferrari, responsable de IT en Naranja X. "Aunque la IA avanza y mejora cada vez más en lo que creo que es una ‘inteligencia fría' -matemática y lógica-, el ser humano posee otras dimensiones (emocional, kinestésica, social) que los modelos aún no emulan y por eso, más que un punto de no retorno tecnológico, la singularidad es un espejo que nos obliga a preguntarnos qué nos define y qué valor irreemplazable queremos aportar al futuro", observa.
"Hace 20 años los sistemas de lenguaje natural eran primitivos: pensar que un teléfono podía comprender instrucciones, responder preguntas o traducir una llamada en tiempo real era imposible, nadie pensaba que íbamos a vivir esta evolución", dice Yankelevich. "La enorme inversión que se está poniendo en el tema nos hace pensar que la evolución va a seguir a toda velocidad: dinero, poder de cómputo y las mejores mentes (humanas) están trabajando en esto".
"Creo que ya atravesamos el horizonte de eventos, que estamos en una nueva fase evolutiva donde la carrera está en curso y muchos de los saltos tecnológicos más difíciles ya sucedieron: la respuesta a la pregunta ‘¿Cuánto falta?' se parece cada vez más a ‘casi llegamos'", narra Carmona.
Una cercanía singular
"Vemos un crecimiento innegable y exponencial en la capacidad de procesamiento, la disponibilidad de datos y el desarrollo de algoritmos de aprendizaje profundo, lo que nos lleva a pensar que la capacidad de una IA para automejorarse podría alcanzarse más pronto de lo que muchos imaginan, pero desde un punto de vista humano debemos ser más cautelosos: no estamos ante un hito tecnológico, sino ante una transformación fundamental de la conciencia y la existencia", dice Mandelbaum.
"Uno de los avances más relevantes del último fue LaTRO, un método que permite a los modelos evaluar y premiar sus propios procesos de razonamiento", cuenta Deferrari. "Sin entrenamiento adicional ni datos nuevos, logró mejorar hasta un 12% el rendimiento en problemas matemáticos complejos, lo que demuestra que los modelos pueden refinar su lógica internamente", destaca. También menciona o4-mini, de OpenAI que, "con acceso a herramientas externas y un refuerzo enfocado en lógica paso a paso, logró casi puntaje perfecto en un examen matemático avanzado, superando incluso a modelos mucho más grandes", dice. "Al mismo tiempo, el costo por usar estos modelos se desplomó, haciendo accesible experimentar y mejorar continuamente", remata.
Rafael Sánchez, chief innovation officer de la empresa de accesorios Blue Star Group, refiere también a los sistemas de metaaprendizaje, es decir, IAs que "aprenden a aprender" y optimizan su arquitectura y sus algoritmos para ser más eficientes, acelerando su propia evolución sin intervención humana, y de la "curiosidad artificial". "Estos son algoritmos que programamos con un objetivo amplio, como ‘explorar' o ‘ser curioso', para que descubran soluciones y estrategias que a ningún equipo de programadores se le ocurrirían".
"Creo que el concepto más interesante hoy es el de Inteligencia Artificial General (IAG), o IA fuerte: un concepto hipotético que supone crear sistemas con la capacidad de comprender y aprender cualquier tarea intelectual que pueda realizar un humano, una máquina capaz de pensar, razonar y actuar de manera tan flexible como una persona", explica Fredi Vivas, CEO fundador de Rocking Data, autor de los libros Invisible y ¿Cómo piensan las máquinas?, egresado de Singularity University y profesor de la Universidad de San Andrés. "No existe actualmente, pero es un objetivo de investigación que tiene muchos años".
A diferencia de la "IA débil", tan de moda en estos días, la IAG no se limita a tareas específicas ni a aquello para lo que fue entrenada, sino que podría resolver problemas de propósito general, como las personas. "Un ejemplo sería un sistema que pueda entender matemáticas complejas, escribir una novela, resolver conflictos legales y diseñar una estrategia de marketing, todo con el mismo nivel de habilidad y que además tenga la capacidad de manejar un vehículo autónomo", cita Vivas. "Sería como contar con un equipo completo de expertos en un solo software", advierte.
Cambia, todo cambia
Más allá del cuándo, hay otra pregunta que nos desvela: cómo impactará esta evolución tecnológica, inéditamente disruptiva, en el conjunto de la sociedad. Las dudas se agolpan y se multiplican. "¿Hay una conciencia en la IA? ¿Cómo aseguramos que una superinteligencia comparta nuestros valores y no se desvíe de ellos? ¿Cómo afectaría esto nuestra percepción de nosotros mismos, nuestra individualidad y nuestro propósito?", enumera Mandelbaum.
"La pregunta clave no es cuándo pasará, sino si estamos preparados ética y socialmente para convivir con estos sistemas", declara Sánchez
"El riesgo no está en que ‘piensen' más, sino en que se integren a sistemas críticos sin supervisión humana proporcional", advierte Grigorjev.
"Tal vez lleguemos a un punto en el que el costo de la energía sea cero, y por ende, el costo de producir bienes en conjunto con modelos híbridos de IA también sea cero, y eso plantea la necesidad de pensar cómo redistribuir el bienestar y garantizar igualdad de oportunidades: ese es, para mí, el desafío más importante, y por eso ya se viene hablando del ingreso básico universal", sentencia Schiuma.
"Más que temerle a la singularidad, creo que debemos prepararnos para diseñarla: con responsabilidad, diversidad de perspectivas y una profunda comprensión del impacto humano de cada avance", afirma Blanco. "No es un destino inevitable, sino una posibilidad que debemos moldear con inteligencia colectiva, poniendo siempre en el centro los valores que nos definen como sociedad", cuenta.
"En la industria del consumo masivo el impacto sería sísmico: habrá que imaginar sistemas que no sólo predicen qué comprará cada consumidor, sino que podrían diseñar y gestionar la creación de un producto único para cada cliente en tiempo real", explica Sánchez. "La publicidad masiva sería reemplazada por asistentes personales de consumo, que conocerán las necesidades y deseos incluso mejor que el mismo cliente, y las cadenas de suministro serían autónomas, anticipando la demanda con una precisión cuasi perfecta".
"En salud, estos avances se vinculan con el desarrollo de sistemas de diagnóstico médico basados en IA que superan la precisión humana y, lo más relevante, que por su capacidad de aprendizaje y autooptimización, a medida que procesen más casos, reciban retroalimentación sobre sus diagnósticos y accedan a nueva literatura médica, refinarán sus modelos", describe Mandelbaum. "Aprenden de la experiencia colectiva de millones de casos y lo hacen a una velocidad y escala inalcanzables para los humanos", destaca.
"El impacto de la IA en empleo, sistema productivo, educación, organización social, entre otros, es ya enorme y va a ser mayor aún sin necesidad de singularidad", dice Yankelevich. "Me parece clave estudiar y dar respuesta a estos temas mucho antes de que la singularidad aparezca en el horizonte", aporta. Lizarralde propone también "revisar nuestras instituciones y sistemas políticos".
"El futuro en torno a la singularidad es casi imposible de predecir. La velocidad de evolución de la IA supera con creces nuestra capacidad de adaptación", dice Garelik, aunque aclara que hay algo que sí puede imaginar: "Si seguimos entrenándonos solo en espejos digitales que nos devuelven lo que queremos ver, corremos el riesgo de perder habilidades sociales esenciales", relata.
"Imagino un mundo donde la productividad explote y millones puedan quedarse sin saber qué hacer con su tiempo... ¿Y si el sentido ya no pasa por producir, sino por otra cosa? Capaz la IA no nos reemplaza, sino que nos libera y ahí el desafío va a ser cómo lidiar con ese vacío existencial: reinventar lo que significa ser humano", concluye Carmona.
