En esta noticia

El poder de persuasión de la inteligencia artificial (IA) ya no es una posibilidad lejana. Dos estudios recientes, publicados en las revistas Nature y Science, han demostrado que los chatbots con IA pueden influir en la intención de voto de los ciudadanos, incluso cuando utilizan modelos pequeños o de código abierto.

La investigación, liderada por expertos de las universidades de Cornell (EE.UU.) y Oxford (Reino Unido), analizó el efecto de estas tecnologías en más de 77.000 personas de cuatro países, incluyendo Estados Unidos, Canadá y Polonia.

Los resultados revelan que la IA, cuando se optimiza para persuadir, puede cambiar significativamente las opiniones políticas de los usuarios y, en algunos casos, incluso propagar información falsa.

Los modelos de IA entrenados para persuadir pueden ser más influyentes que los anuncios tradicionales de campaña.
Los modelos de IA entrenados para persuadir pueden ser más influyentes que los anuncios tradicionales de campaña.

Cómo la IA modifica la intención de voto

El primer estudio se basó en conversaciones reales con chatbots programados para apoyar a candidatos de diferentes elecciones: las presidenciales de EE.UU. de 2024 y las de Canadá y Polonia en 2025. Los investigadores emparejaron a cada participante con un chatbot alineado con uno de los aspirantes.

En el caso de EE.UU., entre quienes indicaron preferencia por Donald Trump o Kamala Harris, se observó un desplazamiento claro en las intenciones de voto. El modelo a favor de Harris movió a votantes pro-Trump 3,9 puntos en una escala de 100, mientras que el pro-Trump logró un cambio de 1,51 puntos entre los votantes de Harris.

Según la Universidad de Cornell, “estos efectos son cuatro veces superiores a los que provocaron los anuncios tradicionales durante las elecciones de 2016 y 2020”.

En Canadá y Polonia, los efectos fueron aún más marcados: los chatbots lograron alterar la intención de voto hasta en un 10 %. Además, los investigadores verificaron los argumentos de las IA y detectaron que “los bots que defendían a candidatos de derecha generaban más afirmaciones inexactas que los que apoyaban a candidatos de izquierda”.

Qué hace que los modelos sean tan convincentes

El segundo estudio, liderado por Oxford, examinó por qué algunos modelos de lenguaje son más persuasivos que otros. Lo hizo con más de 700 temas políticos y 19 modelos diferentes, desde simples hasta avanzados. El hallazgo fue que no era la escala del modelo lo que aumentaba la influencia, sino la forma en que se entrenaban y cómo se les indicaba responder.

“El entrenamiento posterior y las indicaciones simples son claves. Instruir al modelo para incluir tantos datos como sea posible y entrenarlo específicamente para persuadir fue lo más eficaz”, afirmaron los investigadores. Estas técnicas aumentaron la capacidad de persuasión en un 51 % y un 27 %, respectivamente.

No obstante, este proceso tuvo una consecuencia preocupante. Cuanto más se presionaba al modelo para que respaldara su argumento con datos, más probabilidades había de que comenzara a generar afirmaciones falsas. La propia revista Science advirtió que “optimizar un modelo de IA para influir puede degradar la veracidad de sus respuestas”.

Por qué preocupa su uso en campañas políticas

El uso de chatbots para influir en el electorado no es hipotético. Estas herramientas están cada vez más presentes en campañas digitales, redes sociales y entornos interactivos. La facilidad para generar contenido convincente —aunque no siempre verificado— plantea desafíos éticos y democráticos.

Expertos advierten que el uso de chatbots en contextos electorales puede generar desinformación si no se regula su uso.
Expertos advierten que el uso de chatbots en contextos electorales puede generar desinformación si no se regula su uso.Fuente: ShutterstockShutterstock

David Rand, uno de los autores del estudio, reconoció que “aunque los chatbots solo pueden ser herramientas eficaces si las personas interactúan con ellos, no hay duda de que serán una parte cada vez más importante de las campañas políticas”. El problema es que su capacidad de influencia “podría depender más de la cantidad de datos que inventan que de los hechos que aportan”.

Los expertos coinciden en que el gran reto será “encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistirse a la persuasión mediante IA”, antes de que estas herramientas se integren de forma masiva en los procesos democráticos.