Preocupación

El auge de la IA, herido por las peligrosas "alucinaciones" de los chatbots

La inteligencia artificial generativa tiene hoy una adopción explosiva en diversos ámbitos, pero muchos de los textos que proporciona a los usuarios contienen errores graves

En esta noticia

No hay dudas de que 2023 será recordado como el año de la inteligencia artificial. Con servicios como ChatGPT, la tecnología sorprendió, se hizo masiva y dio un salto sorprendente en cuanto a adopción.

Pero el fenómeno tiene un revés preocupante: la creación y consumo de información falsa por fallas inherentes a las plataformas de IA. Se trata de un problema admitido por las compañías tecnológicas y que se resume en la palabra "alucinar", que este año sumó una nueva entrada en el diccionario Cambridge: "Cuando una inteligencia artificial alucina, produce información falsa", detalla ahora la definición.

Cómo es la escalofriante inteligencia artificial que podría cambiar la historia de la humanidad

ChatGPT rompe otra barrera: esta nueva herramienta lo hace más "humano"

El problema de las alucinaciones tiene un impacto concreto en la vida de millones de usuarios de inteligencia artificial, muchos de los cuales se encuentran en plena formación escolar o académica. Hoy en día, 9 de cada 10 estudiantes ya usan ChatGPT para realizar sus tareas, pese a que la herramienta no es capaz de verificar la información que brinda ni evaluar de manera alguna su fiabilidad. El dato surge de una encuesta reciente realizada por el IUDPT (Instituto Universitario para el Desarrollo Productivo y Tecnológico Empresarial de la Argentina).

La trampa de la IA actual

"Alucinación es el término técnico asociado a una creación de un modelo de lenguaje que presenta errores lógicos o fácticos, pero que está perfectamente construida desde lo gramatical. Es decir que se ven como respuestas que lucen correctas, pero que en realidad no lo son. A veces, los errores son obvios para cualquier persona, pero puede ocurrir que una alucinación sólo sea detectada por un especialista en un campo", advierte Alexander Ditzend, presidente de la Sociedad Argentina de Inteligencia Artificial.

En la misma línea, Mariano Maisterrena, conferencista sobre IA y experto de Genesis Venture Capital, señala: "Esto pasa porque ChatGPT y sistemas similares no 'entienden' la información como las personas, sino que se basan en patrones aprendidos de grandes volúmenes de datos. Esta clase de inteligencia artificial siempre va a dar una respuesta coherente en el formato, pero que no necesariamente es verídica".

Inteligencia artificial: expertos advierten sobre el problema de las "alucinaciones".

Los expertos coinciden en que, más allá de los distintos productos o servicios de IA que se elija, en la actualidad es "la tecnología de fondo", la que adolece del problema de las alucinaciones.

Los usuarios, con cautela

Ante el riesgo de la información falsa que devuelven los chatbots de IA de manera aleatoria, se recomienda tener un "enfoque verificador" y no confiar ciegamente. Esto representa un viraje respecto de la visión predominante meses atrás, en la que un entusiasmo exagerado consideraba a la inteligencia artificial como una suerte de panacea tecnológica.

Cómo es la escalofriante inteligencia artificial que podría cambiar la historia de la humanidad

Celulares Samsung: cuál es el mejor modelo por menos de $ 100.000

"Los usuarios deben ser críticos. Aunque la IA puede ser una herramienta poderosa, es crucial recordar que sus respuestas pueden contener errores. Siempre es recomendable verificar la información, especialmente cuando se trata de fechas exactas, bibliografías o nombres", indica Maisterrena.

Por su parte, Ditzend remarca que "los buscadores no fueron reemplazados por ChatGPT. En un buscador, los usuarios tenemos certeza de que lo que vemos tiene respaldo en la realidad. Todo tiene una fuente y alguna institución responsable de lo que publica. En cambio, las respuestas de ChatGPT son generadas en el momento".

Las compañías que impulsan la inteligencia artificial reconocen la gravedad de las alucinaciones y prometen solucionarlas, aunque no anticipan cuándo. Esto no impide que sigan lanzando productos basados en IA, que arrastran este problema sobre el que conviene estar advertido.

Temas relacionados
Más noticias de inteligencia artificial

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.