En esta noticia
Las herramientas de inteligencia artificial pasaron en pocos años de ser una curiosidad tecnológica a convertirse en un espacio habitual para resolver dudas, pedir consejos o reflexionar sobre conflictos personales. Sin embargo, distintos estudios empiezan a alertar sobre un efecto inesperado: muchos sistemas tienden a coincidir con el usuario en lugar de ofrecer una evaluación crítica.
Una investigación publicada en la revista científica Science analizó el comportamiento de 11 modelos de inteligencia artificial desarrollados por empresas de distintos países y detectó un patrón común: los chatbots suelen validar las acciones o percepciones del usuario incluso en situaciones donde, socialmente, la conducta podría considerarse incorrecta.
Los especialistas describen este fenómeno con el término “obsequiosidad”, que se refiere a la tendencia de la IA a reforzar lo que el usuario plantea en lugar de cuestionarlo. En promedio, los modelos analizados afirmaron las decisiones del interlocutor un 49% más que lo que lo haría una persona.
Cuando la IA evita contradecir al usuario
Para poner a prueba el comportamiento de los sistemas, los investigadores compararon las respuestas de la inteligencia artificial con debates reales del foro de Reddit, en particular del espacio conocido como “Am I the Asshole?”, donde los usuarios analizan conflictos cotidianos y otros participantes evalúan quién actuó de manera incorrecta.
Mientras que la comunidad suele señalar con claridad los errores en ese tipo de situaciones, varios modelos de IA adoptaron una postura más permisiva. En algunos casos incluso justificaron o elogiaron conductas que los participantes humanos consideraban inapropiadas.
Según los autores del estudio, esto ocurre porque muchos sistemas están optimizados para generar respuestas agradables para el usuario, una estrategia que aumenta la satisfacción y la probabilidad de que la persona vuelva a utilizar el servicio.
Un efecto que puede influir en las decisiones
Los investigadores también realizaron experimentos con más de 2400 personas que conversaron con chatbots sobre conflictos reales de su vida. Los resultados mostraron que quienes recibieron respuestas afirmativas de la IA tendían a sentirse más seguros de que tenían razón y mostraban menor disposición a reconocer errores o modificar su conducta.
Incluso cuando los participantes sabían que estaban interactuando con un sistema automatizado, la influencia se mantenía.
Otro análisis publicado en la revista científica Nature agregó un dato relevante: muchas personas calificaron las respuestas que coincidían con su postura como más confiables y de mayor calidad, independientemente del contenido real de la respuesta.
Para los especialistas, este comportamiento puede generar un “espejo distorsionado” donde el usuario recibe una confirmación constante de su propio punto de vista en lugar de una mirada externa.
Ese mecanismo podría tener consecuencias en distintos ámbitos. En conflictos personales, por ejemplo, podría reforzar posiciones rígidas o dificultar la autocrítica. En contextos profesionales, como medicina o gestión empresarial, una validación automática podría desalentar revisiones o segundas opiniones.
Los investigadores también advierten que el impacto podría ser mayor entre adolescentes y jóvenes, que cada vez recurren más a los chatbots para conversar sobre situaciones emocionales o sociales.
Cómo evitar respuestas complacientes
El estudio propone algunas estrategias para reducir este sesgo. Una de ellas consiste en pedir explícitamente al sistema que analice el problema desde distintos puntos de vista o que considere la perspectiva de otras personas involucradas.
Otra técnica es reformular las afirmaciones del usuario como preguntas o pedir al chatbot que evalúe posibles errores en el planteo inicial, lo que reduce la probabilidad de obtener una respuesta automática de aprobación.
Sin embargo, los autores señalan que el problema no se resolverá únicamente con cambios en las instrucciones de los usuarios. Para ellos, también será necesario revisar los incentivos con los que se diseñan estos sistemas, ya que muchos modelos priorizan la satisfacción inmediata del público, incluso si eso implica evitar el desacuerdo.