U$D

LUNES 10/12/2018
Dólar Banco Nación
/
Merval

Empleadores analizan emociones de postulantes con Inteligencia Artificial

Los algoritmos pueden descifrar cuán entusiasta, honesto o dinámico puede ser un solicitante de empleo

Empleadores analizan emociones de postulantes con Inteligencia Artificial

La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear un teléfono e incluso que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también qué sentimos.

La llamada tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que tiene el poder de transformar el reclutamiento.

Sus algoritmos, según dicen, pueden descifrar qué tan entusiasta, honesto o dinámico puede ser un candidato a un puesto de empleo, y ayudar a los empleadores a descartar personas con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.

Human es una compañía startup con sede en Londres, fundada en 2016, que analiza aplicaciones para buscar trabajo basadas en videos. La firma señala que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de su personalidad. Sus algoritmos recopilan la información a partir de las expresiones faciales subliminales que hace el candidato cuando responde preguntas.

Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican qué tan "honesto" o "apasionado" es una persona.

"Si el reclutador dice: Estamos buscando al candidato más curioso, pueden encontrar a esa persona comparando los puntajes de los candidatos", explicó Yi Xu, la fundadora y CEO de Human.

Aún así, durante una entrevista los reclutadores pueden evaluar a los candidatos de la manera convencional, pero existe un límite en cuanto a la cantidad de personas con la que pueden reunirse o al número de solicitudes en video que pueden ver.

Según Xu, la tecnología de reconocimiento de emociones de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.

"Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del candidato", comentó. Uno de los objetivos, afirmó, es vencer la discriminación étnica y de género en la contratación.

Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero aseguró: "Los nuevos sistemas conllevan nuevos problemas".

El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una funcionaria legal en Privacy International, contó que no está claro si los datos utilizados para entrenar los algoritmos de reconocimiento de emociones como los obtenidos durante las entrevistas de trabajo por video cuentan como "personales" y si se les aplica la legislación que protege la privacidad de los datos.

En la década de 1970, los psicólogos estadounidenses Paul Ekman y Wallace V. Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, por sus siglas en inglés). Usando el sistema, un especialista en el FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.

Ekman, que actualmente dirige el Paul Ekman Group, firma que capacita a especialistas en reconocimiento de emociones, declaró que es posible dar con inteligencia emocional artificial confiable en base a sus métodos. Pero él agregó: "Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos".

Ekman declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados. "El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto", comentó.

Las personas difieren en su capacidad de manipular sus emociones para "engañar" al sistema, y Ekman apuntó: "Si las personas saben que las están observando, cambian su comportamiento". Si se les avisa que sus emociones serán analizadas se cohiben.

Según HireVue, Unilever ahorró 50.000 horas de trabajo en 18 meses desde que puso gran parte de su proceso de contratación online y comenzó a usar la plataforma de entrevistas por video. HireVue integró la tecnología de reconocimiento de emociones a su servicio hace aproximadamente dos años y le vendió su servicio a Unilever. Unilever no respondió preguntas.

"Los reclutadores tienen la oportunidad de dedicar su tiempo a los mejores candidatos en lugar de a quienes lograron pasar por la revisión del curriculum", comentó Loren Larsen, director de tecnología en HireVue, con sede en Salt Lake City. "No se deja fuera del proceso a la persona adecuada porque fue a la escuela equivocada".

Human primero entrenó sus algoritmos con imágenes y videos disponibles públicamente antes de pasar a lo que Xu llama sus "datos protegidos", los videos que sus clientes le envían. HireVue no ha desarrollado algoritmos de inteligencia artificial, sino que aprovecha la base de datos de emociones de Affectiva, una empresa líder en reconocimiento de emociones que trabaja en investigación de mercado y en publicidad.

Gabi Zijderveld, directora de marketing de Affectiva, opina que los empleadores podrían usar la inteligencia emocional artificial de varias maneras. Un ejemplo es la capacitación a empleados que quieren mejorar presentaciones o pulir sus argumentos de venta. Otro podría hacer un seguimiento del bienestar de los trabajadores para detectar agotamiento o depresión, algo que Zijderveld considera un caso de uso válido para la tecnología de la compañía. Pero "el seguimiento del estado de ánimo da miedo", agregó.

Todas estas compañías de IA aseguran que depende de los empleadores ser transparentes sobre cómo usan su tecnología y los datos que recopilan. Pero nadie verifica si lo son. "Esa decisión no depende de nosotros. Nosotros sólo creamos la tecnología", aclaró.

"Uno no piensa cómo va la gente a hacer mal uso del producto", comentó Xu, "pero no somos lo suficientemente ingenuos como para pensar que esta tecnología sólo puede hacer el bien", concluyó.

Comentarios1
Jose Gustav
Jose Gustav 05/03/2018 10:36:46

Las agencias de inteligencia ya usan el polígrafo hace rato. Raro que todavía no nos conectaron a eso en una entrevista. Claro que esta es la versión más fashion, la "kinect" que es HR-friendly.

Más notas de tu interés