Los expertos aseguran que las afirmaciones de que la inteligencia artificial puede eludir los prejuicios humanos por etnia o género para impulsar la diversidad en el lugar de trabajo, son "falsas y peligrosas". Según los investigadores de la Universidad de Cambridge (Reino Unido), estas herramientas reducen la raza y el género a datos triviales, y a menudo se basan en análisis de personalidad que son "pseudociencia automatizada".

En los últimos años han aparecido herramientas de IA que se comercializan como respuesta a la falta de diversidad en la mano de obra, desde el uso de chatbots para alinear a los posibles candidatos, hasta el software de análisis para las entrevistas de vídeo.

Quienes están detrás de esta tecnología afirman que anula los prejuicios humanos contra el género y el origen étnico durante la contratación, utilizando en su lugar algoritmos que leen el vocabulario, los patrones del habla e incluso las microexpresiones faciales para evaluar enormes grupos de solicitantes de empleo en busca del tipo de personalidad y el "ajuste cultural" adecuados.

Sin embargo, en un nuevo informe publicado en a revista 'Philosophy and Technology', los investigadores del Centro de Estudios de Género de Cambridge sostienen que estas afirmaciones hacen que algunos usos de la IA en la contratación sean poco más que una "pseudociencia automatizada" que recuerda a la fisiognomía o la frenología: la desacreditada creencia de que la personalidad puede deducirse de los rasgos faciales y la forma del cráneo.

Afirman que es un peligroso ejemplo de "tecnosolucionismo": recurrir a la tecnología para ofrecer soluciones rápidas a problemas de discriminación muy arraigados que requieren inversiones y cambios en la cultura de la empresa.

De hecho, los investigadores han trabajado con un equipo de estudiantes de informática de Cambridge para desacreditar estas nuevas técnicas de contratación mediante la creación de una herramienta de IA basada en la tecnología, disponible en 'https://personal-ambiguator-frontend.vercel.app/

La "Máquina de la Personalidad" demuestra cómo cambios arbitrarios en la expresión facial, la ropa, la iluminación y el fondo pueden dar lecturas de la personalidad radicalmente diferentes, lo que podría marcar la diferencia entre el rechazo y la progresión para una generación de solicitantes de empleo que compiten por puestos de trabajo para licenciados.

El equipo de Cambridge afirma que el uso de la IA para reducir el número de candidatos puede, en última instancia, aumentar la uniformidad en lugar de la diversidad de la mano de obra, ya que la tecnología está calibrada para buscar el "candidato ideal" de fantasía del empleador.

Según los investigadores, quienes tengan la formación y los antecedentes adecuados podrían "ganarle a los algoritmos" replicando los comportamientos que la IA está programada para identificar, y llevando esas actitudes al lugar de trabajo.

Además, como los algoritmos se perfeccionan utilizando datos anteriores, sostienen que los candidatos considerados más adecuados probablemente acaben siendo los que más se parezcan a la plantilla actual.

"Nos preocupa que algunos proveedores estén envolviendo productos de 'aceite de serpiente' en un paquete brillante y vendiéndolos a clientes desprevenidos --asegura la coautora, la doctora Eleanor Drage--. Al afirmar que el racismo, el sexismo y otras formas de discriminación pueden eliminarse del proceso de contratación mediante la inteligencia artificial, estas empresas reducen la raza y el género a puntos de datos insignificantes, en lugar de sistemas de poder que dan forma a cómo nos movemos por el mundo".

Los investigadores señalan que estas herramientas de contratación con IA suelen suelen estar patentadas -o ser una "caja negra"-, por lo que su funcionamiento es un misterio.

"Si bien las empresas pueden no estar actuando de mala fe, hay poca responsabilidad sobre cómo se construyen o prueban estos productos" --admite Drage--. Como tal, esta tecnología, y la forma en que se comercializa, podrían acabar siendo peligrosas fuentes de desinformación sobre cómo se puede 'desprejuiciar' la contratación y hacerla más justa".

A pesar de algunas críticas --la Ley de IA propuesta por la UE clasifica el software de contratación impulsado por IA como de "alto riesgo"--, los investigadores afirman que las herramientas fabricadas por empresas como Retorio y HIreVue se despliegan con poca regulación, y señalan que las encuestas sugieren que el uso de la IA en la contratación está creciendo.

Un estudio realizado en 2020 sobre 500 organizaciones de diversos sectores en cinco países reveló que el 24% de las empresas han implementado la IA con fines de contratación y que el 56% de los directores de contratación planean adoptarla en el próximo año.

Otra encuesta realizada en abril de 2020 a 334 líderes de recursos humanos, cuando la pandemia se afianzaba, descubrió que el 86% de las organizaciones estaban incorporando la nueva tecnología virtual a las prácticas de contratación.

"Esta tendencia ya estaba en marcha cuando comenzó la pandemia, y el cambio acelerado hacia el trabajo en línea provocado por COVID-19 probablemente hará que los departamentos de recursos humanos desplieguen más herramientas de IA en el futuro", señala la coautora, la doctora Kerry Mackereth, que presenta el podcast Good Robot con Drage, en el que el dúo explora la ética de la tecnología.

La covid-19 no es el único factor, según los operarios de recursos humanos a los que han entrevistado los investigadores. "La contratación por volumen es cada vez más insostenible para los equipos de recursos humanos, que están desesperados por el software para reducir los costes, así como por el número de solicitantes que necesitan atención personal", afirma Mackereth.

Drage y Mackereth afirman que muchas empresas utilizan ahora la IA para analizar los vídeos de los candidatos, interpretando la personalidad mediante la evaluación de las regiones de un rostro --similar a la IA para la detección de mentiras-- y puntuando los "cinco grandes" tropos de la personalidad: extroversión, simpatía, apertura, conciencia y neuroticismo.

Los estudiantes que están detrás de la "Máquina de la Personalidad", que utiliza una técnica similar para exponer sus defectos, afirman que, aunque su herramienta no ayude a los usuarios a superar el algoritmo, dará a los solicitantes de empleo una idea de los tipos de escrutinio de la IA a los que podrían estar sometidos, quizás incluso sin su conocimiento.

"Con demasiada frecuencia, el proceso de contratación es oblicuo y confuso --asegura Euan Ong, uno de los estudiantes desarrolladores--. Queremos dar a la gente una demostración visceral del tipo de juicios que ahora se hacen sobre ellos de forma automática".

"Estas herramientas están entrenadas para predecir la personalidad basándose en patrones comunes en imágenes de personas que han visto previamente, y a menudo acaban encontrando correlaciones espurias entre la personalidad y propiedades aparentemente no relacionadas de la imagen, como el brillo --añade Ong--. Hicimos una versión de juguete del tipo de modelos que creemos que se utilizan en la práctica, para experimentar nosotros mismos".