

En los últimos años, las inteligencias artificiales han ganado terreno en la vida cotidiana: escriben textos, ayudan a programar, recomiendan productos y responden dudas. Pero cuanto más humanas parecen, más preguntas surgen. ¿Puede una IA tener género, identidad o personalidad propia?
Uno de los modelos más populares, ChatGPT, desarrollado por OpenAI, ha sido consultado repetidamente sobre si es hombre o mujer. Su respuesta es clara y abre un nuevo debate: ¿por qué nos cuesta tanto no ponerle etiquetas humanas a algo que no lo es?
ChatGPT lo deja claro: no es hombre ni mujer
Cuando se le pregunta directamente si es hombre o mujer, ChatGPT responde sin titubeos: no tiene género, porque no es una persona, sino un modelo de lenguaje. De hecho, OpenAI ha publicado un documento oficial -el Model Spec- que detalla cómo sus sistemas deben comportarse, aclarando que no adoptan identidad, emociones ni género humano.

Sin embargo, muchas personas -especialmente en plataformas, redes sociales o medios- tienden a referirse a ChatGPT como "él", lo cual puede deberse al nombre en masculino o a la voz que algunas plataformas predeterminan. Desde OpenAI destacan que esta atribución es una proyección del usuario, no una característica del modelo.
¿Por qué le atribuimos género a una IA?
Este fenómeno se conoce como antropomorfización, es decir, la tendencia humana a asignar rasgos humanos a sistemas no humanos. Como explica la investigadora Kate Devlin en Turned On: Science, Sex and Robots (2018, Bloomsbury), los seres humanos solemos proyectar identidad y género en las máquinas para comprenderlas y categorizarlas .
Algo similar ocurrió con asistentes como Siri o Alexa, que comenzaron con voces femeninas por defecto y fueron percibidas como "mujeres virtuales", lo que generó críticas por reproducir estereotipos de género.
¿Una tecnología neutra en un lenguaje que no lo es?
Aunque ChatGPT insiste en no tener género, el lenguaje humano sí contiene género, lo que plantea un desafío: ¿podemos diseñar una herramienta verdaderamente neutra cuando nuestras estructuras lingüísticas y sociales no lo son?

También se han presentado iniciativas en diferentes regiones para evaluar cómo la inteligencia artificial afecta la discriminación por género. Por ejemplo, un artículo de Scientific American destaca que ChatGPT tiende a reproducir sesgos en cartas de recomendación, calificando a los hombres como "expertos" o "inteligentes" y a las mujeres como "agradables" o "emocionales". Estos hallazgos refuerzan la importancia de seguir trabajando para minimizar sesgos heredados del lenguaje y los datos.













