El boom de ChatGPT y los peligros de la nueva era de la inteligencia artificial

Los sistemas de inteligencia artificial generativa como ChatGPT pueden producir contenido a pedido, amenazando no solo los trabajos sino también con generar una oleada de información errónea

En esta noticia

Hace poco más de 10 años, tres investigadores de inteligencia artificial (IA) lograron un gran avance que cambió el campo para siempre.

El sistema "AlexNet", entrenado en 1,2 millones de imágenes tomadas de toda la web, reconoció objetos tan diferentes como un barco de contenedores y un leopardo con una precisión mucho mayor que la que las computadoras habían logrado antes.

Esa hazaña ayudó a los desarrolladores Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton a ganar una arcana competencia anual llamada ImageNet. También ilustró el potencial del aprendizaje automático y desencadenó una carrera en el mundo de la tecnología para llevar la IA a la corriente principal.

Desde entonces, la era de la IA de la informática ha ido tomando forma en gran medida entre bastidores. El aprendizaje automático, una tecnología subyacente que implica que las computadoras aprendan de los datos, se ha utilizado ampliamente en trabajos como la identificación de fraudes con tarjetas de crédito y hacer que el contenido y la publicidad en línea sean más relevantes. Si los robots están comenzando a hacerse cargo de todos los trabajos, ha estado ocurriendo en gran medida fuera de la vista.

Es decir, hasta ahora. Otro avance en la IA acaba de sacudir el mundo de la tecnología. Esta vez, las máquinas están operando a simple vista, y finalmente podrían estar listas para cumplir con la amenaza de reemplazar millones de puestos de trabajo.

ChatGPT, un sistema de generación de texto y respuestas a consultas lanzado a finales de noviembre, irrumpió en la conciencia pública de una manera rara vez vista fuera del ámbito de la ciencia ficción. Creado por la firma de investigación OpenAI con sede en San Francisco, es el más visible de una nueva ola de los llamados sistemas de IA "generativos" que pueden producir contenido a pedido.

Si escribe una consulta en ChatGPT, responderá con un breve párrafo que presenta la respuesta y algo de contexto. Pregúntele quién ganó las elecciones presidenciales de 2020, por ejemplo, y presenta los resultados y le dice cuándo asumió Joe Biden.

Fácil de usar y capaz de generar resultados que parecen haber sido producidos por un ser humano en un instante, ChatGPT promete introducir la IA en la vida cotidiana. La noticia de que Microsoft ha realizado una inversión multimillonaria en OpenAI, cofundada por el creador de AlexNet, Sutskever, casi ha confirmado el papel central que desempeñará la tecnología en la próxima fase de la revolución de la IA.

ChatGPT es el último de una serie de demostraciones públicas cada vez más dramáticas. Otro sistema OpenAI, el sistema de escritura automática GPT-3, electrificó el mundo de la tecnología cuando se presentó a mediados de 2020. Le siguieron los llamados modelos de lenguaje grande de otras compañías, antes de que el campo se ramificara el año pasado hacia la generación de imágenes con sistemas como Dall-E 2 de OpenAI, Stable Diffusion de código abierto de Stability AI y Midjourney.

La evolución del sistema Dall-e, que puede crear obras de arte e imágenes realistas a pedido

Estos avances han desencadenado una lucha para encontrar nuevas aplicaciones para la tecnología. Alexandr Wang, director ejecutivo de la plataforma de datos Scale AI, lo llama "una explosión cámbrica de casos de uso", comparándolo con el momento prehistórico cuando la vida animal moderna comenzó a florecer.

Si las computadoras pueden escribir y crear imágenes, ¿hay algo, cuando se entrenan con los datos correctos, que no puedan producir? Google ya ha mostrado dos sistemas experimentales que pueden generar video a partir de un aviso simple, así como uno que puede responder problemas matemáticos. Empresas como Stability AI han aplicado la técnica a la música.

La tecnología también se puede utilizar para sugerir nuevas líneas de código, o incluso programas completos, a los desarrolladores de software. Las compañías farmacéuticas sueñan con usarlo para generar ideas para nuevos medicamentos de una manera más específica. La compañía de biotecnología Absci dijo este mes que había diseñado nuevos anticuerpos usando IA, algo que dijo que podría reducir más de dos años de los aproximadamente cuatro que se necesitan para llevar un medicamento a ensayos clínicos.

Pero a medida que la industria tecnológica se apresura a imponer esta nueva tecnología a una audiencia global, existen efectos sociales potencialmente de gran alcance a considerar.

Dígale a ChatGPT que escriba un ensayo sobre la Batalla de Waterloo al estilo de un niño de 12 años, por ejemplo, y tendrá la tarea de un niño en edad escolar entregada a pedido. Más en serio, la IA tiene el potencial de usarse deliberadamente para generar grandes volúmenes de información falsa, y podría automatizar una gran cantidad de trabajos que van mucho más allá de los tipos de trabajo creativo que están más obviamente en la línea de fuego.

"Estos modelos van a cambiar la forma en que las personas interactúan con las computadoras", dice Eric Boyd, director de plataformas de IA de Microsoft. Ellos "comprenderán su intención de una manera que no ha sido posible antes y la traducirán en acciones informáticas". Como resultado, agrega, esto se convertirá en una tecnología fundamental, "tocando casi todo lo que hay".

El problema de la confiabilidad

Los defensores de la IA generativa dicen que los sistemas pueden hacer que los trabajadores sean más productivos y creativos. Un sistema de generación de código de la división GitHub de Microsoft ya está generando el 40 por ciento del código producido por los desarrolladores de software que usan el sistema, según la compañía.

El resultado de sistemas como estos puede ser un "desbloqueo mental" para cualquier persona que necesite generar nuevas ideas en su trabajo, dice James Manyika, vicepresidente senior de Google que analiza el impacto de la tecnología en la sociedad. Integrados en las herramientas de software cotidianas, podrían sugerir ideas, verificar el trabajo o incluso producir grandes volúmenes de contenido.

Sin embargo, a pesar de su facilidad de uso y su potencial para alterar gran parte del panorama tecnológico, la IA generativa presenta profundos desafíos para las empresas que la construyen y tratan de aplicarla en la práctica, así como para las muchas personas que probablemente la encontrarán dentro de poco tiempo en su trabajo o en su vida personal.

El principal es el problema de la fiabilidad. Las computadoras pueden generar respuestas que suenan creíbles, pero es imposible confiar completamente en nada de lo que dicen. Hacen su mejor presunción basándose en suposiciones probabilísticas informadas mediante el estudio de montañas de datos, sin una comprensión real de lo que producen.

"No tienen ningún recuerdo fuera de una sola conversación, no pueden llegar a conocerte y no tienen noción de lo que significan las palabras en el mundo real", dice Melanie Mitchell, profesora de la Universidad de Santa Fe. Instituto. Simplemente produciendo resultados que suenan persuasivos en respuesta a cualquier indicación, son imitadores brillantes pero sin cerebro, sin garantía de que su salida sea algo más que una alucinación digital.

Ya ha habido demostraciones gráficas de cómo la tecnología puede producir resultados que suenan creíbles pero no confiables.

A fines del año pasado, por ejemplo, Meta, el padre de Facebook, mostró un sistema generativo llamado Galáctica que fue entrenado en trabajos académicos. Rápidamente se descubrió que el sistema arrojaba investigaciones que parecían creíbles pero falsas a pedido, lo que llevó a Facebook a retirar el sistema días después.

Los creadores de ChatGPT admiten las deficiencias. El sistema a veces presenta respuestas "sin sentido" porque, cuando se trata de entrenar la IA, "actualmente no hay una fuente de verdad", dijo OpenAI. Usar humanos para entrenarlo directamente en lugar de dejar que aprenda por sí mismo, un método conocido como aprendizaje supervisado, no funcionó porque el sistema a menudo era mejor para encontrar "la respuesta ideal" que sus maestros humanos, agregó OpenAI.

Una posible solución es someter los resultados de los sistemas generativos a una verificación de sentido antes de que se publiquen. El sistema LaMDA experimental de Google, que se anunció en 2021, presenta alrededor de 20 respuestas diferentes para cada mensaje y luego evalúa cada una de ellas en cuanto a "seguridad, toxicidad y conexión a tierra", dice Manyika. "Hacemos una llamada para buscar para ver, ¿es esto real?"

Sin embargo, cualquier sistema que dependa de humanos para validar la salida de la IA plantea sus propios problemas, dice Percy Liang, profesor asociado de informática en la Universidad de Stanford. Podría enseñarle a la IA cómo "generar cosas engañosas pero creíbles que en realidad engañan a los humanos", dice. "El hecho de que la verdad sea tan resbaladiza, y los humanos no sean muy buenos en eso, es potencialmente preocupante".

Según los defensores de la tecnología, existen formas prácticas de usarla sin tratar de responder a estas preguntas filosóficas más profundas. Al igual que un motor de búsqueda en Internet, que puede arrojar información errónea y resultados útiles, las personas descubrirán cómo aprovechar al máximo los sistemas, dice Oren Etzioni, asesor y miembro de la junta de AI2, el instituto de investigación de IA creado por el cofundador de Microsoft, Paul Allen.

"Creo que los consumidores simplemente aprenderán a usar estas herramientas para su beneficio. Solo espero que eso no implique que los niños hagan trampa en la escuela", dice.

Pero dejar que los humanos adivinen a las máquinas puede no ser siempre la respuesta. El uso de sistemas de aprendizaje automático en entornos profesionales ya ha demostrado que las personas "confían demasiado en las predicciones que surgen de los sistemas y modelos de IA", dice Rebecca Finlay, directora ejecutiva de Partnership on AI, un grupo de la industria tecnológica que estudia los usos. de IA.

El problema, agrega, es que las personas tienden a "imbuirse de diferentes aspectos de lo que significa ser humano cuando interactuamos con estos modelos", lo que significa que olvidan que los sistemas no tienen una "comprensión" real de lo que están diciendo.

Estos problemas de confianza y confiabilidad abren el potencial de uso indebido por parte de malos actores. Para cualquiera que intente engañar deliberadamente, las máquinas podrían convertirse en fábricas de desinformación, capaces de producir grandes volúmenes de contenido para inundar las redes sociales y otros canales. Entrenados en los ejemplos correctos, también pueden imitar el estilo de escritura o la voz hablada de personas en particular. "Va a ser extremadamente fácil, barato y amplio crear contenido falso", dice Etzioni.

Este es un problema inherente a la IA en general, dice Emad Mostaque, jefe de Stability AI. "Es una herramienta que la gente puede usar de manera moral o inmoral, legal o ilegal, ética o no ética", dice. "Los malos ya tienen inteligencia artificial avanzada". La única defensa, afirma, es difundir la tecnología lo más ampliamente posible y hacerla abierta a todos.

Esa es una receta controvertida entre los expertos en inteligencia artificial, muchos de los cuales abogan por limitar el acceso a la tecnología subyacente. Boyd de Microsoft dice que la compañía "trabaja con nuestros clientes para comprender sus casos de uso y asegurarse de que la IA realmente sea un uso responsable para ese escenario".

Agrega que la compañía de software también trabaja para evitar que las personas "traten de engañar al modelo y hagan algo que realmente no querríamos ver". Microsoft proporciona a sus clientes herramientas para escanear la salida de los sistemas de IA en busca de contenido ofensivo o términos particulares que deseen bloquear. Aprendió por las malas que los chatbots pueden volverse deshonestos: su bot Tay tuvo que ser retirado apresuradamente en 2016 después de vomitar racismo y otras respuestas incendiarias.

Hasta cierto punto, la tecnología en sí misma puede ayudar a controlar el mal uso de los nuevos sistemas de IA. Manyika, por ejemplo, dice que Google ha desarrollado un sistema de lenguaje que puede detectar con un 99 por ciento de precisión cuando el habla se ha producido sintéticamente. Ninguno de sus modelos de investigación generará la imagen de una persona real, agrega, lo que limita el potencial para la creación de las llamadas falsificaciones profundas.

Empleos bajo amenaza

El auge de la IA generativa también ha dado lugar a la última ronda del prolongado debate sobre el impacto de la inteligencia artificial y la automatización en los puestos de trabajo. ¿Reemplazarán las máquinas a los trabajadores o, al hacerse cargo de las partes rutinarias de un trabajo, harán que los trabajadores existentes sean más productivos y aumenten su sentido de realización?

Lo más obvio es que los trabajos que involucran un elemento sustancial de diseño o escritura están en riesgo. Cuando Stability Diffusion apareció a fines del verano pasado, su promesa de imágenes instantáneas para combinar con cualquier mensaje hizo temblar a los mundos del diseño y el arte comercial.

Algunas empresas de tecnología ya tratan de aplicarla a la publicidad, incluida Scale AI, que ha entrenado un modelo de IA en imágenes publicitarias. Eso podría hacer posible producir imágenes de aspecto profesional a partir de productos vendidos por "minoristas más pequeños y marcas que no tienen fondos para hacer sesiones de fotos para sus productos", dice Wang.

Eso amenaza potencialmente el sustento de cualquiera que cree contenido de cualquier tipo. "Revoluciona toda la industria de los medios", dice Mostaque. "Todos los principales proveedores de contenido del mundo pensaron que necesitaban una estrategia de metaverso: todos necesitan una estrategia de medios generativos".

Según algunos de los humanos en riesgo de ser desplazados, hay más en juego que solo un cheque de pago. Presentado con canciones escritas por ChatGPT para sonar como su propio trabajo, el cantante y compositor Nick Cave estaba horrorizado. "Las canciones surgen del sufrimiento, con lo que quiero decir que se basan en la compleja lucha humana interna de la creación y, bueno, hasta donde yo sé, los algoritmos no sienten", escribió en línea. "Los datos no sufren".

Los tecnooptimistas creen que la tecnología podría amplificar, en lugar de reemplazar, la creatividad humana. Armado con un generador de imágenes de IA, un diseñador podría volverse "más ambicioso", dice Liang en Stanford. "En lugar de crear solo imágenes individuales, puede crear videos completos o colecciones completamente nuevas".

El sistema de derechos de autor podría terminar jugando un papel importante. Las empresas que aplican la tecnología afirman que son libres de entrenar sus sistemas con todos los datos disponibles gracias al "uso justo", la excepción legal en los EE.UU. que permite el uso limitado de material protegido por derechos de autor.

Otros no están de acuerdo. En los primeros procedimientos legales para impugnar el uso despilfarrador de imágenes con derechos de autor por parte de las empresas de IA para entrenar sus sistemas, Getty Images y tres artistas iniciaron la semana pasada acciones en los EE.UU. y el Reino Unido contra Stability AI y otras empresas.

Según un abogado que representa a dos empresas de inteligencia artificial, todos en el campo se han preparado para las inevitables demandas que establecerán las reglas básicas. La batalla por el papel de los datos en el entrenamiento de la IA podría volverse tan importante para la industria tecnológica como las guerras de patentes en los albores de la era de los teléfonos inteligentes.

En última instancia, será necesario que los tribunales establezcan los términos de la nueva era de la IA, o incluso los legisladores, si deciden que la tecnología rompe con los viejos supuestos en los que se basa la ley de derechos de autor existente.

Hasta entonces, a medida que las computadoras compiten para absorber más datos del planeta, es temporada abierta en el mundo de la IA generativa.

Temas relacionados
Más noticias de ChatGPT

Las más leídas de Financial Times

Destacadas de hoy

Noticias de tu interés

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.