¿ChatGPT discrimina? Un estudio demostró que los adultos mayores se sienten excluidos por esta tecnología
Un estudio reveló que los adultos mayores se sienten discriminados por la inteligencia artificial (IA). Este dato proviene de una investigación que entrevistó a personas de diez países europeos.
En los últimos años, la inteligencia artificial (IA) ha avanzado a pasos agigantados. Esta tecnología ha permitido la creación de plataformas como ChatGPT, el chatbot que crea contenido a base de texto, o Dall-E, el generador de arte digital.
Pero, a pesar de estos avances y la simpleza de su uso, muchas personas aún se sienten ajenas a este tipo de tecnologías. De hecho, un reciente estudio reveló que hay grupos que se sienten discriminados por la IA.
El grupo que se siente discriminado por la IA
El estudio European Tech Insights de la IE Universidad, y replicado por Statista, reveló que muchos perciben a los adultos mayores como el grupo más propenso a ser discriminado por la inteligencia artificial, con una media del 35% entre diez países.
Esto es superior al porcentaje percibido para minorías étnicas o personas con discapacidades. Las personas de bajos ingresos también son vistas como un grupo potencialmente discriminado, con un 22%. Por otro lado, solo el 8% cree que las mujeres podrían ser discriminadas por la IA.
Es importante señalar que estas cifras muestran percepciones y no la discriminación objetiva real por parte de la IA.
Qué datos arrojó el estudio
Para el estudio, publicado en agosto de este año, se encuestó a más de 3000 personas en diez países europeos sobre qué grupos creían que podrían ser más afectados por la IA. La pregunta tenía la intención de entender qué grupos se sienten más discriminados por esta tecnología y estaba formulada de manera abierta.
Algunos participantes pudieron haber pensado en detalles como el acceso a tecnologías de IA, que puede ser un desafío mayor para las generaciones más antiguas. Por otro lado, algunos podrían haber reflexionado sobre la discriminación algorítmica, donde la IA puede magnificar sesgos ya presentes en los datos.
Como ilustración, una búsqueda de "CEO" en Midjourney muestra principalmente hombres blancos, mientras que buscar "autista" arroja imágenes de niños pelirrojos.
Además, desde la entidad que realizó el estudio, señalan que los encuestados también podrían haber considerado cómo ciertos chatbots pueden reproducir y amplificar sesgos existentes en sus respuestas.