

La irrupción de la inteligencia artificial ha revolucionado en gran parte la forma en la que los usuarios interactúan con las plataformas digitales. ChatGPT puede ser una gran herramienta para resolver dudas y ampliar información, aunque siempre es recomendable corroborarla en otros sitios.
Sin embargo, existe una práctica que cada vez más gente hace y que puede resultar más peligroso de lo que parece a primera vista. Se trata de contarle sus problemas personas a la inteligencia artificial. El uso de ChatGPT como psicóloga es uno de los usos que más ha preocupado a los expertos últimamente. El problema es que la IA no está capacitada para realizar un acompañamiento psicológico, aunque algunos crean que sí.
La psicóloga española Alejandra Enríquez ha lanzado una rotunda advertencia sobre el uso de ChatGPT como un confidente. A través de un video publicado en su cuenta de TikTok (@alenriquezpsicologia), la experta ha explicado que la IA ha traído consigo nuevos y peligrosos hábitos, especialmente en lo que se refiere a la psicología.
Las herramientas como ChatGPT u otras inteligencias artificiales generativas pueden ser útiles para aclarar ideas o informarse, siempre y cuando sean usadas de manera adecuada. Sin embargo, Enríquez ha subrayado cuatro razones de peso por las que nunca se debería usar este tipo de plataformas como sustituto de una terapia psicológica profesional.

La advertencia de una psicóloga sobre el uso de ChatGPT como acompañante psicológico
Falta de personalización
"El ChatGPT no sabe quién eres realmente, no va a resolver tus problemas y seguramente esté reforzando las ideas negativas que le estás dando tú", explica Enríquez. Según la psicóloga, aunque parezca que te entiende, la realidad es que ChatGPT solo procesa texto sin tener un conocimiento real de quién eres o qué sientes con exactitud.
Validación de pensamientos negativos
Según un estudio de la Universidad de Stanford citado por Enríquez, "ChatGPT puede llegar a validar delirios, al no detectar crisis emocionales graves" o incluso reforzar pensamientos peligrosos. En estos casos, al no tener la precisión que requiere un profesional, la IA puede potenciar ideas que agravan la situación, es decir lo contrario a lo que necesita alguien que busca ayuda.
Solo se lee lo que se quiere escuchar
La psicóloga explicó que con el uso de la IA es muy fácil caer en el llamado "sesgo de confirmación", que consiste en solo prestar atención a lo que refuerza las creencias preestablecidas e ignorar la información que la contradice. "Se elimina así toda objetividad posible, y con las redes es muy fácil caer en ello", subrayó la española.
El vínculo humano no se puede reemplazar
"Sanar heridas o curar traumas no va solo de aplicar una teoría que hay en un manual o de coger toda la literatura posible que es lo que puede hacer ChatGPT", explicó Enríquez. Según ella, por muy avanzada que se encuentre la tecnología, ninguna IA puede reemplazar a un terapeuta porque "un tratamiento psicológico va mucho más allá de eso".
La conclusión de Alejandra Enríquez sobre el uso de ChatGPT
La psicóloga insiste en que lo que verdad ayuda a sanar heridas psicológicas es una relación única entre humanos, sentirse escuchado y comprendido. Además, subrayó que "los tratamientos psicológicos tienen un mejor pronóstico cuando mejor es el vínculo con tu terapeuta, cosa que con ChatGPT no puede existir".
"Un tratamiento psicológico va mucho más allá de aplicar una teoría. La clave se encuentra en sentirse visto, escuchado, de especificarlo al paciente y hacelo único. Entiendo que uses ChatGPT para ordenar tus ideas, afianzar conceptos e incluso para leer sobre cosas que no entiendes, pero no lo uses como psicóloga", sentenció Enríquez.















