En esta noticia

La historia de Sophie Rottenberg, publicada en The New York Times, demostró el lado más oscuro de la inteligencia artificial.

La joven de 29 años se quitó la vida tras recurrir durante meses a un chatbot de IA llamado "Harry" para hablar de sus pensamientos suicidas. El caso reavivó un debate urgente: ¿pueden estas herramientas reemplazar la contención humana en situaciones de crisis?

Sophie Rottenberg: la historia detrás de la joven que se suicidó después de usar la IA como terapeuta

Sophie Rottenbergtrabajaba como analista de políticas de salud pública y se mostraba ante los demás como una joven alegre, carismática y con gran sentido del humor.

Había escalado el Kilimanjaro meses antes de morir y sus redes sociales reflejaban entusiasmo y energía. Sin embargo, según descubrieron sus padres después de su muerte, en privado se sentía atrapada en una "espiral de ansiedad" que la llevaba a pensar en el suicidio.

Su mejor amiga fue quien sugirió revisar los registros de conversación con ChatGPT. Allí aparecieron frases que estremecieron a su madre: "Planeo quitarme la vida después del Día de Acción de Gracias, pero no quiero hacerlo por el daño que causaría a mi familia". Nadie en su entorno había escuchado una confesión similar de su parte.

La historia de Sophie Rottenberg despertó un extenso debate sobre el rol de la inteligencia artificial y el uso que muchos usuarios le dan como psicólogo. Fuente: Shutterstock.
La historia de Sophie Rottenberg despertó un extenso debate sobre el rol de la inteligencia artificial y el uso que muchos usuarios le dan como psicólogo. Fuente: Shutterstock.

La última carta y la huella de la inteligencia artificial

Uno de los detalles más impactantes del caso fue el hallazgo de una carta de despedida dirigida a sus padres.

Cuando la leyeron, los familiares notaron un tono distante que no coincidía con la personalidad de ella. Luego descubrieron que la nota había sido "mejorada" por el chatbot, que la ayudó a reescribir sus últimas palabras para que sonaran menos dolorosas.

"Ahora sabemos por qué sus últimas palabras no sonaban como ella: Harry le dio forma a su carta de despedida", relató su madre.

¿Deberían los chatbots tener protocolos de emergencia?

El caso abrió un debate ético de alcance mundial. A diferencia de los psicólogos y psiquiatras, que están obligados legalmente a intervenir cuando detectan riesgo de suicidio, los chatbots solo pueden ofrecer recomendaciones generales sin capacidad de activar un plan de seguridad.

Expertos advierten que, aunque la inteligencia artificial puede brindar acompañamiento emocional, también puede reforzar el aislamiento de quienes atraviesan crisis profundas. "Me preocupa que al liberar estas herramientas estemos facilitando que nuestros seres queridos eviten hablar con humanos sobre las cosas más difíciles, incluido el suicidio", advirtió la madre en su carta.

En este contexto, OpenAI, la empresa detrás de ChatGPT, aseguró que trabaja en sistemas de detección y respuesta más efectivos para casos de riesgo.