AI podría reducir los sesgos de contratación a medida que las empresas presionan para encontrar trabajadores, dicen los defensores

El uso de la inteligencia artificial para ayudar en la toma de decisiones delicadas de las empresas ha despertado la desconfianza de los reguladores de EE. UU., particularmente por su potencial para potenciar el sesgo humano.

Pero a medida que la escasez de trabajadores provoca presiones de contratación generalizadas, los defensores de la IA dicen que la tecnología, lejos de ser riesgosa, podría ayudar a las empresas a tomar decisiones de contratación más justas, no solo más rápidas.

La llamada Gran Renuncia, una reestructuración masiva de la fuerza laboral que coincidió con la pandemia de coronavirus, continúa amenazando a las empresas, con encuestas de liderazgo corporativo que muestran que los problemas de personal siguen siendo uno de los riesgos a corto plazo más apremiantes. Muchos han recurrido a la IA para aumentar su fuerza de reclutamiento, a pesar de las advertencias perennes de los reguladores y expertos sobre el potencial de los algoritmos para aprender de manera efectiva y luego magnificar los sesgos humanos.

Los defensores, sin embargo, argumentan que eliminar el elemento humano en realidad puede ayudar. La salida de la IA se puede auditar fácilmente y las computadoras pueden despojarse de algunos de los sesgos ocultos que pueden acechar en la mente de una persona. Una computadora no tiene una ciudad natal, no fue a la universidad y no tiene pasatiempos, por lo que inconscientemente no se entusiasmará con un candidato amistoso de la forma en que lo haría un verdadero reclutador.

“Un candidato podría hablar sobre su equipo universitario de lacrosse, y cuando era capitán del equipo, y otro candidato, ‘Vi el partido de fútbol anoche’”, dijo Kevin Parker, quien está en transición a un rol de asesor ejecutivo en la contratación empresa de tecnología HireVue Inc. después de ocupar el cargo de director ejecutivo. HireVue ofrece software que puede automatizar entrevistas.

“Cuando puede hacerles a los candidatos exactamente la misma pregunta sobre las habilidades asociadas con su trabajo, obtiene un resultado mucho más justo… y la diversidad mejora como resultado de eso”, dijo Parker.

Muchas conversaciones sobre la intervención de la IA en decisiones importantes se han centrado en su potencial para amplificar los sesgos, un resultado que puede ocurrir cuando un conjunto de datos utilizado para enseñar un sistema de IA fue en sí mismo producto de un sesgo.

Matissa Hollister, profesora asistente de comportamiento organizacional en la Universidad McGill


Foto:

Universidad McGill

“Hay una creciente comprensión de que estas herramientas pueden exacerbar el sesgo”, Matissa Hollister, profesora asistente de comportamiento organizacional de la Universidad McGill. “No sé cuántas veces he escuchado, ‘Mantener a los humanos en recursos humanos’”.

“Incluso las herramientas que no son muy incompletas pueden crear una reacción negativa significativa”, dijo el Dr. Hollister, quien recientemente colaboró ​​​​con el Foro Económico Mundial en un “juego de herramientas” para IA en recursos humanos.

Algunas empresas han tenido errores notables de IA. amazon.com C ª.,

por ejemplo, supuestamente eliminó un algoritmo destinado a ayudar en la contratación de los mejores talentos cuando se enteró de que su herramienta criticaría a los candidatos que enumeraron en su currículum que asistieron a universidades de mujeres o participaron en clubes de mujeres.

La herramienta, según un informe de Reuters, aprendió lo que Amazon buscaba en un candidato al observar los antecedentes de los candidatos que enviaron currículums en la última década, un grupo que estaba fuertemente sesgado por los hombres. Amazon le dijo a EDL que el proyecto solo se exploró a modo de prueba y se descartó porque los algoritmos eran demasiado primitivos.

Kevin Parker de HireVue.


Foto:

HireVue Inc.

El potencial de la IA para causar daño ha atraído la atención de los reguladores. En octubre, la Comisión de Igualdad de Oportunidades en el Empleo, un organismo federal encargado de hacer cumplir la ley laboral, dijo que estudiaría el uso de la IA en las decisiones laborales.

AI no debe convertirse en “un camino de alta tecnología hacia la discriminación”, dijo la presidenta de la EEOC, Charlotte A. Burrows, cuando se anunció la medida de la agencia. Sin embargo, la EEOC dijo que también analizaría las «prácticas prometedoras» en IA y otras herramientas emergentes.

Frida Polli, directora ejecutiva de Pymetrics Inc., dijo que aunque algunos sistemas pueden replicar los sesgos humanos, otros pueden ayudar a las empresas a eliminarlos. Pymetrics, que cuenta McDonald’s corporación

y KraftHeinz Co.

entre sus clientes, utiliza juegos para evaluar los atributos de los candidatos, como su atención y tolerancia al riesgo, y para determinar si encajarían en un trabajo en particular.

El Dr. Polli, que trabajó como neurocientífico en la Universidad de Harvard y el Instituto de Tecnología de Massachusetts, dijo que los algoritmos de Pymetrics han sido auditados por expertos de la Universidad Northeastern para garantizar que no discriminen sin darse cuenta.

Las pruebas no necesariamente tienen respuestas correctas o incorrectas, pero pueden ayudar a dirigir, por ejemplo, a una persona metódica a un trabajo que se adapte a esa personalidad, ayudando a las empresas a encontrar candidatos que de otro modo podrían pasarse por alto.

Algunos candidatos, como las personas que no fueron a la universidad, no obtuvieron buenas calificaciones o no conocen a alguien que ya esté trabajando en una empresa, pueden ser aptos para un trabajo pero no ser descubiertos en un proceso intensivo de mano de obra donde los reclutadores son forzados a tomar decisiones rápidas y descartar rápidamente decenas de candidatos, dijo el Dr. Polli.

“Amo a los humanos”, dijo la Dra. Polli. “No creo que debamos, ya sabes, desintermediar a los humanos en el corto plazo. [But] no hay investigaciones que respalden la idea de que los humanos son imparciales”.

El Sr. Parker de HireVue dijo que las herramientas que vende su empresa también pueden ayudar a ampliar las búsquedas. El software de entrevistas automatizadas de HireVue permite a una empresa entrevistar a cientos o miles de candidatos que responden a preguntas pregrabadas y luego analiza sus respuestas transcritas para determinar los atributos de los candidatos, por ejemplo, qué tan orientado al equipo podría estar un candidato.

“Siempre estamos buscando prejuicios en el proceso”, dijo Parker. “Hacemos muchas pruebas rigurosas para asegurarnos de que algo que no es deseable no se filtre en el proceso”.

El software, creado después de que el fundador de HireVue notara que los empleadores interesados ​​en graduados de las escuelas de la Ivy League lo ignoraban, entrevista a un millón de personas al mes y se ha utilizado para realizar entrevistas en 40 idiomas. La compañía utiliza una junta asesora de ética de IA para navegar por los problemas éticos, dijo Parker.

Más de Diario de riesgo y cumplimiento

“No tiene la intención y no debe ser en lugar de un compromiso personal”, dijo Parker sobre su producto. “Se trata simplemente de descubrir la forma más eficiente de averiguar con quién debería hablar”.

Pero una plataforma impulsada por IA tiene poderosas ventajas para dar una primera mirada a los candidatos, dijo Parker. Puede soportar mil entrevistas sin aburrirse o recurrir a atajos mentales que podrían eliminar injustamente a un candidato.

“Un cliente me preguntó una vez: ‘¿Puede la inteligencia artificial decirme si el candidato lleva corbata?’”, dijo. “Como, no. ¿Por qué quieres saber eso? No debería importar cuál sea tu origen. No debería importar el color de la camisa que estés usando. Nada de eso es relevante”.

El Dr. Hollister de McGill dijo que las empresas deben ser conscientes de lo que está en juego, especialmente para los solicitantes cuyos medios de subsistencia están en juego, y considerar ser transparentes con los candidatos sobre su uso. Las empresas también deben resistirse a que se les venda el supuesto «misterio y poder» de la IA al evaluar su función, dijo.

La premisa básica de la IA es algo que “cualquiera puede entender”, dijo.

Escribir a Richard Vanderford en richard.vanderford@wsj.com

Copyright ©2022 Dow Jones & Company, Inc. Todos los derechos reservados. 87990cbe856818d5eddac44c7b1cdeb8

Fuente: WSJ

Salir de la versión móvil