En esta noticia
La IA aprendió a hablar como nosotros. Eso era esperable. Lo que está ocurriendo ahora es distinto.
Los grandes modelos de lenguaje (LLM) se entrenaron con millones de textos escritos por personas: libros, artículos, conversaciones, foros y redes sociales. Aprendieron patrones, cadencias y estructuras narrativas. Hoy aparece un fenómeno inverso: ¿qué pasa cuando empezamos a escribir, hablar y pensar bajo patrones algorítmicos?
Un estudio de Yakura y colaboradores (Max Planck Institute for Human Development, 2024), basado en el análisis de más de 740.000 horas de discurso humano (charlas académicas y podcasts), detectó un aumento medible en el uso de vocabulario asociado a los modelos de lenguaje después del lanzamiento de ChatGPT. Los investigadores describen este fenómeno como un bucle cultural: las máquinas, entrenadas con lenguaje humano, devuelven patrones lingüísticos que los humanos comienzan a reproducir.
El patrón que empieza a pensar por nosotros
Este tipo de fenómeno tiene antecedentes. Mucho antes de la democratización de la IA, la comunicación profesional ya había incorporado estructuras repetitivas. Las fórmulas de copywriting, las charlas tipo TED, los elevator pitch o ciertas estructuras de storytelling llevan años estandarizando la forma de presentar ideas.
La IA no inventó la estandarización del discurso: la industrializó.Lo que antes era una técnica, hoy es un patrón global replicado en segundos.
Cuando millones de personas recurren a las mismas herramientas para redactar correos, preparar presentaciones y producir contenido, ciertas estructuras se replican de manera masiva. No se repiten solo palabras. Se repiten cadencias, secuencias argumentativas, formas de construir autoridad discursiva.
Ese estilo efectivo empieza a convertirse en un formato estándar. Y cuando demasiados discursos utilizan las mismas fórmulas, no hay diferenciación. El esfuerzo de marketing se diluye: si todos comunican de la misma manera, ninguna marca logra destacarse. Lo indistinguible no vende, no fideliza y no se recuerda.
Otra investigación de Anil Doshi (UCL) y Oliver Hauser (Universidad de Exeter), publicada en Science Advances en 2024, lo confirma con datos: los textos escritos con ayuda de IA fueron evaluados como más creativos individualmente, pero también resultaron significativamente más similares entre sí. La IA sube el piso, mejora el promedio y borra la diferencia.
Lo que hoy escasea entonces no es la calidad: es la originalidad.
Algunos investigadores advierten un riesgo equivalente en la producción académica.
Un trabajo reciente publicado en Humanities and Social Sciences Communications(Nature Portfolio, 2025), basado en el análisis de más de un millón de abstracts académicos entre 2012 y 2024, detectó una convergencia creciente en los patrones de escritura científica a escala global. Cuando investigadores de distintos países utilizan las mismas herramientas y estándares lingüísticos, los textos empiezan a parecerse entre sí independientemente del origen, la disciplina o el idioma nativo del autor.
El patrón no se limita al marketing ni al contenido digital. También empieza a aparecer en la producción de conocimiento.
La oralidad guionada: cuando el algoritmo también decide cómo decirlo
Hoy esa homogeneización se traslada a la oralidad. Expertos, influencers, profesionales y marcas empiezan a sonar sorprendentemente parecidos.
Cada vez más contenido audiovisual se prepara a partir de guiones generados o corregidos por IA. Basta recorrer videos y reels de distintos países, industrias e idiomas en múltiples plataformas para detectar los mismos patrones: gancho inicial, tres ideas ordenadas, remate optimizado. Cambia la cara y la voz, no cambia el patrón.
Hasta hace poco, la voz era uno de los últimos territorios donde todavía se preservaban diferencias claras de estilo. La escritura se corrige y se edita. La oralidad conserva rastros más directos de experiencia, ritmo y pensamiento propio. Si ese territorio también empieza a estandarizarse, corremos el riesgo de que no solo cambiemos cómo sonamos, sino también cómo pensamos.
No sería la primera vez que una tecnología reorganiza la forma en que pensamos. La escritura transformó la memoria humana. La imprenta reconfiguró la circulación del conocimiento. Internet modificó la forma en que accedemos a la información.
La IA parece estar inaugurando otra mutación: la estandarización algorítmica del discurso.
La pérdida de singularidad discursiva: la voz que se adapta hasta desaparecer
No todo este proceso puede atribuirse a la tecnología. También intervienen la economía de la atención, la presión constante por producir contenido y la lógica de las plataformas digitales, que no solo distribuyen contenido, sino que condicionan cómo se crea.
Si la visibilidad depende de formatos optimizados para algoritmos, el lenguaje comienza a adaptarse a esos formatos. Y si a esa lógica se le suma la asistencia de modelos generativos, la repetición se acelera.
La IA mal usada no origina este fenómeno. Lo hace sistémico.
No sería la primera vez que delegamos procesos mentales en herramientas externas. Lo hicimos con el celular y el buscador. Ahora empezamos a hacerlo con el lenguaje.
Cuando la herramienta empieza a sugerir texto antes de que uno piense, ya no solo asiste: nos condiciona. El lenguaje deja de ser expresión para convertirse en selección. Y seleccionar entre opciones que otro generó puede convertirse en una forma discreta —y eficiente— de erosionar la voz y el pensamiento autónomo.
La herramienta no solo facilita la escritura. Termina influyendo en cómo estructuramos el pensamiento que la precede.
El bucle cultural entre humanos y modelos: un ciclo que se degrada
La IA aprende del lenguaje humano; ese lenguaje vuelve a los humanos filtrado por el modelo. Si el lenguaje que alimenta a las máquinas se empobrece, el lenguaje que regresa también lo hace.
En 2024, un paper publicado en la revista científica Nature describió un fenómeno llamado model collapse: es lo que ocurre cuando los modelos de IA se entrenan con datos generados por otros modelos, comienzan a perder información y precisión con el tiempo (Shumailov et al., Nature, 2024).
Los investigadores lo describen como un proceso degenerativo donde el sistema pierde precisión con cada ciclo. Es el equivalente digital a hacer fotocopias de una fotocopia una y otra vez.
Más allá del nombre, la advertencia es clara: la calidad del lenguaje que alimenta a los sistemas condiciona la calidad del pensamiento que esos sistemas producen.
Si el ecosistema lingüístico se empobrece, las herramientas entrenadas en ese ecosistema también lo hacen. Y si además producimos y consumimos contenido bajo esos mismos patrones, delegando incluso la estructura de nuestras ideas en nombre de la efectividad, nos vamos descapitalizando intelectualmente.
“Si el pensamiento corrompe el lenguaje, el lenguaje también puede corromper el pensamiento”, advertía George Orwell en 1946. Su recomendación era simple: “dejar que el significado elija la palabra, y no al revés.”
En una época en la que las máquinas pueden generar lenguaje con una facilidad que ninguna generación anterior conoció, esa advertencia deja de ser literaria para volverse práctica. Los modelos operan con un repertorio léxico y conceptual acotado. Si quien los opera no tiene vocabulario propio, formación ni criterio desarrollado, el resultado es la intersección de dos limitaciones: la del modelo y la de quien lo usa.
Cuando empezamos a pensar dentro de los mismos moldes lingüísticos y del mismo repertorio, el riesgo ya no es solo sonar parecidos. Con el tiempo, podemos terminar imaginando menos.
La paradoja: en el momento en que las máquinas dominan la producción de lenguaje estándar, lo que empieza a escasear (y por lo tanto a volverse más valioso) es precisamente lo que ellas no pueden generar. El pensamiento propio, la espontaneidad y la originalidad.
Lo que escasea cuando todos producen bien
Un análisis reciente de Kantar, realizado junto a iMotions y Affectiva sobre cientos de anuncios generados con IA (2026), llega a una conclusión que resume bien el problema: la IA no tiene la marca en el corazón, a menos que alguien se la ponga.
Cuando la herramienta trabaja sin una voz definida detrás, produce contenido que podría ser de cualquiera. Y lo que podría ser de cualquiera termina no siendo de nadie. O peor: siendo indistinguible del de su competidor. La herramienta produce. Pero la identidad la pone la marca.
El lenguaje no es solo comunicación. Es el instrumento con el que una empresa construye su lugar en el mercado.
En palabras de Wittgenstein, “Los límites de mi lenguaje son los límites de mi mundo”. En negocios, eso no es filosofía: es estrategia. Una marca que habla con los mismos moldes que todas las demás no solo suena igual. También corre el riesgo de pensar igual. Y una marca que piensa igual que su competidor no tiene un diferencial real.
Para profesionales, empresarios y marcas, la amenaza no es quedar fuera de la conversación, sino quedar dentro de ella sin que nadie los distinga.
Las voces que saben qué decir y cómo decirlo son las que se recuerdan. Construir esa voz es un trabajo deliberado: desarrollar pensamiento propio, una perspectiva reconocible y sostenerla en el tiempo.
Las marcas que salgan mejor de este momento no serán las que usaron IA antes que las demás. Serán las que sabían qué querían decir antes de usarla.
Esa es la ventaja competitiva más difícil de replicar: no el acceso a la tecnología, sino el criterio para integrarla en la estrategia de negocio.
Es el trabajo que hacemos en Ollesch Agency: acompañar a empresas, marcas y pymes de la región a desarrollar voz y criterio propio. Y a incorporar la IA reconociendo sus límites y dónde la intervención humana es insustituible, en un momento en que la tentación de delegar y automatizar sin definición previa ni supervisión es más fuerte que nunca.
La IA es una herramienta extraordinaria. Pensar antes de usarla no es una recomendación de estilo. Es la condición para que sea útil. Y eso empieza por saber qué se quiere decir y por qué vale la pena decirlo.