En esta noticia

La noticia sonó con fuerza y no por inesperada. Las discusiones sobre si la inteligencia artificial (IA) provocará una sangría en las plantillas de las compañías ya tienen respuesta y cuenta con nombre propio: Capgemini.

La consultora tecnológica comunicó un ERE en su filial española apuntando a los efectos sobre el empleo que la inteligencia artificial está teniendo en el sector.

Capgemini no informó a cuántos de sus 11.000 empleados en España afectará el expediente de regulación del empleo para llevar adelante el “proceso de reestructuración” de la plantilla. También dijo que ya fueron informados los representantes de los trabajadores. Las negociaciones entre las partes comenzarán el próximo 23 de abril.

La expansión de la inteligencia artificial redefine sectores enteros y acelera decisiones empresariales que afectan tanto al empleo como a la inversión.Fuente: ShutterstockShutterstock

“La innovación tecnológica se está acelerando, generando nuevas oportunidades, pero también nuevos retos en un entorno operativo cada vez más incierto”, argumenta la compañía en un comunicado, en el que también explica que las necesidades de los clientes también evolucionan rápidamente, “y nos estamos adaptando para responder a estas nuevas demandas y a los cambios tecnológicos, garantizando que nuestros equipos cuentan con las competencias adecuadas para el futuro”.

Aunque la subsidiaria española no es la única que sufrirá un recorte de plantilla. A principios de este año, la consultora anunció el despido de 2.400 trabajadores de su casa matriz de Francia, lo que implica una reducción de entre un 6% y 7% del total de sus empleados.

Los empleos cualificados, cada vez más expuestos al avance de la inteligencia artificial

El caso de Capgemini muestra que no sólo los puestos de baja o mediana cualificación están en peligro. La brecha entre empleos administrativos y aquellos de alta preparación, creada por el uso de IA en las empresas, se está acotando drásticamente. Como muestra vale destacar que en estos últimos días se conoció que un 20% y 25% de las tareas que realiza el 10% de los trabajadores mejor pagados está en riesgo de automatización.

En efecto, un estudio publicado por Coface y el Observatorio de Empleos Amenazados y Emergentes (OEM), revela que el modelo de bonanza económica del que presumían los perfiles tecnológicos de élite está amenazado por la IA que ellos ayudaron a crear. Ahora “el riesgo” provocado por la automatización de las tareas alcanza a perfiles altamente capacitados.

¿Cuáles son las posiciones más expuestas a la automatización por IA y el impacto en el mercado laboral? De acuerdo a Coface y OEM, las titulaciones de la familia de ingeniería y computación son las más amenazadas por la inteligencia artificial. Le siguen de cerca las que pertenecen al sector legal y financiero. “No se trata de tareas manuales, sino de la esencia del trabajo de un desarrollador o analista, como programar, modelar y simular”, sostiene el estudio.

Otros que tampoco pueden dormir tranquilos son aquellos cuyas tareas tienen que ver con la gestión como los informáticos sénior. Porque el informe advierte sobre la fase Conductor en la que la inteligencia artificial adquiere memoria episódica y capacidad de planificación sofisticada. Ahora, la inteligencia artificial puede gestionar dependencias entre tareas, eliminando así la ventaja comparativa exclusiva de los humanos mejor remunerados.

Qué impacto real tiene la inteligencia artificial en el empleo humano

Para el experto en IA, Andrés Ferraro Sastre, el caso de Capgemini y otras compañías refleja algo más profundo que una ola de despidos: “estamos viviendo un proceso de aprendizaje acelerado sobre cómo integrar la inteligencia artificial en el trabajo”.

“Muchas empresas decidieron reemplazar personas buscando eficiencia y ahí las noticias de estos días, pero no es tan sencillo: ya varias compañías descubrieron que no era tan simple”, afirma el autor del libro “Human IA”.

Ferraro Sastre destaca que la IA no funciona sola ya que necesita contexto, supervisión y criterio humano. “Al automatizar en exceso, algunas organizaciones perdieron algo clave: experiencia, cultura y conocimiento interno. Esto impactó directamente en la calidad del servicio y en la toma de decisiones”.

El experto recuerda que empresas como la sueca Klarna o el gigante IBM tuvieron que recontratar talento para equilibrar tecnología con inteligencia humana. “La lección es clara, la IA no viene a reemplazarnos, sino a amplificarnos”, concluye.

La CNMV alerta sobre los riesgos de invertir con IA

Como si se tratase de un contrapunto, tres días más tarde de que Capgemini anunciase el ERE, la Comisión Nacional del Mercado de Valores (CNMV) publicó un informe en el que alerta que el uso de la inteligencia artificial sin intervención humana conlleva riesgos operativos significativos, “lo que pone de manifiesto que su uso sin control por parte de los inversores minoristas podría dar lugar a pérdidas económicas”.

Ricardo Crisóstomo y Diana Mykhalyuk, técnicos de la Dirección General de Estrategia y Asuntos Internacionales del organismo supervisor y autores del estudio “Large Language Models and Stock Investing: Is the Human Factor Required”, sostienen que tras evaluar los resultados de cuatro modelos avanzados (ChatGPT, Gemini, DeepSeek y Perplexity) concluyen que estas herramientas presentan fallos recurrentes de razonamiento, incluyendo errores computacionales, interpretaciones financieras incorrectas y uso de información desactualizada o inventada (alucinaciones).

También añaden que la mayor incidencia de estos fallos se observa en las consultas simples, sin estructura ni contexto, lo que pone de manifiesto la importancia de utilizar instrucciones analíticas claras y de establecer mecanismos de supervisión.

Los organismos reguladores alertan sobre los riesgos de delegar decisiones de inversión en sistemas de inteligencia artificial sin supervisión humana.Fuente: ShutterstockShutterstock

Punto seguido afirman que para que la capacidad generativa de estos modelos se traduzca en resultados fiables, resulta necesario establecer un marco colaborativo en el que la potencia de procesamiento de la IA esté sujeta a procesos de verificación rigurosos y a una validación humana sistemática que permita mitigar los riesgos asociados cuando se detectan.

“Los modelos de inversión basados en la información procedente de supervisores como la CNMV que contiene datos estandarizados e información altamente contrastada son más fiables y reportan menos errores. El anclaje (grounding) de los sistemas con información procedente de estas fuentes oficiales contribuye a reducir el ruido informativo, favorece la comparabilidad de los datos y permite obtener un razonamiento financiero más coherente, preciso y fiable, frente al uso de la información general que se encuentra en internet”, concluyen.