A medida que las empresas dependen cada vez más de plataformas de contratación impulsadas por inteligencia artificial, muchos candidatos altamente calificados se encuentran en la sala de montaje.
Análisis del lenguaje corporal. Evaluaciones vocales. Pruebas gamificadas. Escáneres de CV. Estas son algunas de las herramientas que utilizan las empresas para seleccionar candidatos con software de reclutamiento de inteligencia artificial. Los solicitantes de empleo se enfrentan a estas indicaciones de las máquinas, y la IA decide si son una buena opción o no.
Las empresas dependen cada vez más de ellos. Una encuesta de IBM de finales de 2023 realizada a más de 8.500 profesionales de TI de todo el mundo mostró que el 42% de las empresas utilizaban la detección de IA «para mejorar la contratación y los recursos humanos» . Otro 40% de los encuestados estaba considerando integrar la tecnología.
Muchos líderes en todo el mundo empresarial esperaban que la tecnología de reclutamiento de IA terminara con los sesgos en el proceso de contratación . Sin embargo, en algunos casos ocurre lo contrario. Algunos expertos dicen que estas herramientas están seleccionando de manera inexacta a algunos de los solicitantes de empleo más calificados, y crece la preocupación de que el software pueda estar eliminando a los mejores candidatos.
«No hemos visto mucha evidencia de que no haya sesgo aquí… o de que la herramienta seleccione a los candidatos más calificados», dice Hilke Schellmann , autora radicada en Estados Unidos de Algorithm: How AI Can Hijack Your Career and Steal Your. Future y profesor asistente de periodismo en la Universidad de Nueva York. Ella cree que el mayor riesgo que este tipo de software representa para los empleos no es que las máquinas ocupen los puestos de los trabajadores, como a menudo se teme, sino que les impidan obtener un puesto. Daño incalculable
Algunos candidatos cualificados ya se han encontrado en desacuerdo con estas plataformas de contratación.
En un caso de alto perfil ocurrido en 2020, la maquilladora residente en el Reino Unido Anthea Mairoudhiou dijo que su compañía le dijo que volviera a postularse para su puesto después de haber sido suspendida durante la pandemia. Fue evaluada tanto en función de su desempeño anterior como a través de un programa de detección de IA, HireVue. Ella dice que obtuvo una buena calificación en la evaluación de habilidades, pero después de que la herramienta de inteligencia artificial calificó mal su lenguaje corporal, se quedó sin trabajo para siempre. ( HireVue, la empresa en cuestión, eliminó su función de análisis facial en 202 1 .) Otros trabajadores han presentado quejas contra plataformas similares, dice Schellmann.
Añade que los candidatos rara vez saben si estas herramientas son la única razón por la que las empresas las rechazan; en general, el software no les dice a los usuarios cómo han sido evaluados. Sin embargo, dice que hay muchos ejemplos evidentes de fallas sistémicas.
En un caso, un usuario que había sido excluido envió la misma solicitud pero modificó la fecha de nacimiento para ser más joven. Con este cambio, consiguieron una entrevista. En otra empresa, un evaluador de currículums mediante IA había sido capacitado en los CV de los empleados que ya estaban en la empresa, lo que otorgaba a las personas calificaciones adicionales si mencionaban «béisbol» o «baloncesto», pasatiempos que estaban vinculados a personal más exitoso, a menudo hombres. Quienes mencionaron «sóftbol», generalmente mujeres, fueron degradados.
Los grupos marginados a menudo «quedan desapercibidos porque tienen diferentes aficiones y han ido a diferentes escuelas», afirma Schellmann.
En algunos casos, los criterios de selección sesgados son claros (como la discriminación por edad o el sexismo), pero en otros son opacos. En su investigación, Schellmann postuló a un trabajo en un centro de llamadas para ser examinada por IA. Luego, inició sesión desde el lado del empleador. Recibió una calificación alta en la entrevista, a pesar de hablar tonterías en alemán cuando se suponía que debía hablar inglés, pero recibió una calificación baja por sus credenciales realmente relevantes en su perfil de LinkedIn.
Le preocupa que los efectos negativos se extiendan como lo hace la tecnología. «Un gerente de contratación humana imparcial puede perjudicar a mucha gente en un año, y eso no es nada bueno», afirma. «Pero un algoritmo que tal vez se utilice en todas las solicitudes entrantes en una gran empresa… podría perjudicar a cientos de miles de solicitantes». «Nadie sabe exactamente dónde está el daño»
«El problema es que nadie sabe exactamente dónde está el daño», explica. Y, dado que las empresas han ahorrado dinero al reemplazar el personal humano de RR.HH. con IA (que puede procesar montones de currículums en una fracción del tiempo), ella cree que las empresas pueden tener poca motivación para investigar los problemas de la máquina.
Según su investigación, a Schellmann también le preocupa que las empresas de software de detección estén «apresurándose» a lanzar al mercado productos subdesarrollados e incluso defectuosos para sacar provecho de la demanda. «Los proveedores no van a salir públicamente a decir que nuestra herramienta no funcionó o que fue perjudicial para las personas», y las empresas que las han utilizado siguen «temerosas de que haya una gigantesca demanda colectiva contra ellas».
Es importante hacer bien esta tecnología, dice Sandra Wachter , profesora de tecnología y regulación en el Instituto de Internet de la Universidad de Oxford.
«Tener una IA que sea imparcial y justa no sólo es algo ético y legalmente necesario, sino que también es algo que hace que una empresa sea más rentable», afirma. «Existe una oportunidad muy clara de permitir que la IA se aplique de manera que tome decisiones más justas y equitativas que se basen en el mérito y que también aumenten los resultados de una empresa».
Wachter está trabajando para ayudar a las empresas a identificar sesgos mediante la creación conjunta de la prueba de disparidad demográfica condicional, una herramienta disponible públicamente que «actúa como un sistema de alarma que le notifica si su algoritmo está sesgado. Luego le brinda la oportunidad de descubrir qué Los criterios de decisión [de contratación] causan esta desigualdad y te permiten hacer ajustes para que tu sistema sea más justo y preciso», dice. Desde su desarrollo en 2020, Amazon e IBM se encuentran entre las empresas que lo han implementado.
Schellmann, mientras tanto, pide «protecciones y regulación» en toda la industria por parte de los gobiernos o las organizaciones sin fines de lucro para garantizar que los problemas actuales no persistan. Si no hay intervención ahora, teme que la IA pueda hacer que el lugar de trabajo del futuro sea más desigual que antes.
FUENTE: BBC NEWS Por Charlotte Lytton