A chequear

Inteligencia artificial: por qué los chatbots inventan información

Las distintas plataformas compuestas por la IA comenzaron a ser cuestionadas por brindar respuestas dudosas.

En esta noticia

Los chatbots de inteligencia artificial, como  ChatGPT o Bard, provocaron una irrupción fuerte en el internet, vienen juntando más de 100 millones de usuarios y la confianza que le depositan es cada día más grande. Pero la crítica común es ¿dicen la verdad o inventan cosas?.

Tanto los chats de OpenAI como el de Google, están compuestos por modelos de lenguaje de inteligencia artificial. ChatGPT fue desarrollada y entrenada por una red neuronal con la capacidad de generar textos basados en un lenguaje autorregresivo que utiliza el machine learning, la forma en la que escribimos los humanos. Y Bard está compuesto por LaMDA, un modelo de lenguaje diseñado personalizado por Google.

Dos modelos de lenguaje con un formato de programación distinto, pero su información esta basada en una misma fuente, internet.

Cambió LinkedIn: estos son los trucos ocultos para conseguir trabajo más rápido y fácil

ChatGPT miente: por qué no hay que creer en todas las respuestas creadas por la IA

¿De dónde sacan la información los chatbots?

Están compuestos por una red neuronal que se basa sobre patrones estadísticos extraídos de una base de datos vinculada a internet. Por eso, cuándo un usuario hace una consulta, un tanto específica y no muy fácil de contestar de forma sencilla, los chatbots se suelen demorar.

Aunque, la consecuencia principal es que los algoritmos que toman la información de la consulta, a veces inventan los hechos o los datos brindados están desactualizados.

También uno de los dilemas planteados por los usuarios fue si tenía sesgos a la hora de opinar sobre una temática. Hubo casos, cómo en GPT, en dónde se atacó a grupos étnicos.

Como consecuencia, los chatbots suelen repetir la actitud con la que los usuarios se dirigen a ellos, y cómo su lenguaje está programado para asimilarse al de un humano, a veces actúa de forma inapropiada, pero cabe aclarar que es un espejo de cómo el usuario trata a la inteligencia artificial.

La "fake new" de Bard

El caso más conocido, en el mundo de los chatbots, ocurrió en manos de la IA de Google, Bard. Aquí, el Bot informó que el telescopio espacial James Webb se usó para tomar las primeras imágenes de un planeta fuera del sistema solar de la Tierra, lo cuál es falso y provocó que saquen el producto del mercado.

¿Qué puede ocurrir con la inteligencia artificial en el futuro?

El escritor Yuval Harrari plantea un dilema en su libro "21 lecciones para el siglo XXI" sobre lo que puede significar un error de la inteligencia artificial en el caso de que remplace a los médicos: "perderemos las ventajas de la individualidad. Por ejemplo, si un médico humano comete un error en su diagnóstico, no mata a todos los pacientes del mundo, ni bloquea en su totalidad el desarrollo de todos los nuevos medicamentos. En cambio, si todos los médicos son realmente un único sistema y dicho sistema comete un error, los resultados podrían ser catastróficos".

Tomando este ejemplo, la carrera por querer mejorar los chatbots ya comenzó, y los usuarios serán quienes determinen cuál es el más confiable para hacer sus consultas.

Temas relacionados
Más noticias de ChatGPT

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.