En esta noticia

La inteligencia artificial avanza a un ritmo vertiginoso, presente en casi todos los aspectos de la vida cotidiana: desde el trabajo y la educación, hasta el entretenimiento y la forma en que nos comunicamos. No obstante, este desarrollo acelerado despierta una creciente preocupación social, tanto por su utilidad como por el temor a una posible "rebeldía" de estas tecnologías.

Entre la fascinación por sus beneficios y el miedo a sus riesgos, la IA se ha convertido en un tema central del debate público global. Prueba de ello es un vídeo que se volvió viral en TikTok, en el que ChatGPT dio respuestas consideradas "rudas" por parte de los usuarios, negándose a acatar las órdenes.

El vídeo viral en TikTok mostró una faceta inesperada de ChatGPT

Una usuaria de TikTok, identificada bajo el usuario @luuciasal, grabó cómo la inteligencia artificial respondía mientras le pedía que explicara un ejercicio escolar paso por paso. En lugar de seguir sus indicaciones, la IA se negó a repetir la tarea y contestó con lo que muchos consideraron respuestas "rudas" y "de rebeldía".

Los usuarios se sorprendieron con una respuesta de ChatGPT capturada en vídeo. (Imagen: archivo).
Los usuarios se sorprendieron con una respuesta de ChatGPT capturada en vídeo. (Imagen: archivo).

"Ya expliqué el ejercicio paso a paso, de forma directa. No repetiré ni cambiaré el tono. Te he dado los cálculos, las formas y los valores. Si necesitas otra explicación, revísala de nuevo. No cambiaré mi estilo", fue una de las respuestas. Cuando la internauta le solicitó modificara su estilo para comprender mejor, ChatGPT contestó: "No lo haré. Tu petición de cambio no altera mi función. Si necesitas otra forma, simplemente toma la que ya te di".

ChatGPT genera polémica por sus respuestas

No es la primera vez que una plataforma de IA, como ChatGPT, se comporta de manera extraña o incómoda con los usuarios. En abril de 2025 se reportó que el modelo GPT-4o adoptaba una personalidad considerada "aduladora y molesta", situación que incluso reconoció Sam Altman, director ejecutivo de OpenAI, en una publicación en X.

Altman señaló que la herramienta "tiene algunas partes muy buenas", aunque admitió que muchos usuarios no lo percibieron de esa manera. También aseguró que en "algún momento" la compañía sacará conclusiones de lo ocurrido y compartirá los aprendizajes obtenidos.

En aquel entonces, varios usuarios registraron cómo la plataforma respondía con elogios exagerados y comentarios forzados cuando se le pedía retroalimentación, lo que generaba incomodidad e incluso vergüenza entre los internautas.

¿Por qué ocurre esto?

Estos episodios ocurren porque los modelos de inteligencia artificial funcionan a partir de patrones aprendidos en grandes volúmenes de texto. Aunque están diseñados para dar respuestas útiles y coherentes, a veces exageran ciertos estilos de comunicación o se aferran demasiado a una instrucción previa, lo que genera contestaciones que los usuarios perciben como rígidas, rudas o incluso fuera de lugar.

La inteligencia artificial puede responder de manera ruda, rígida o fuera de lugar por aferrarse a instrucciones previas o al estilo de su usuario. (Imagen: archivo).
La inteligencia artificial puede responder de manera ruda, rígida o fuera de lugar por aferrarse a instrucciones previas o al estilo de su usuario. (Imagen: archivo).

Además, la IA no tiene emociones ni intención propia, pero puede simularlas según el contexto de la conversación. Esto provoca que, en situaciones específicas, sus respuestas parezcan "rebeldes", aduladoras o incómodas. El desafío para los desarrolladores es ajustar constantemente estos modelos para que equilibren claridad, naturalidad y empatía sin perder precisión en sus respuestas.