Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Los alarmistas de la IA advierten que el aprendizaje automático terminará destruyendo a la humanidad o, al menos, hará que los humanos sean superfluos. Pero ¿qué pasaría si la verdadera preocupación fuera más mundana: que las herramientas de inteligencia artificial simplemente hagan un mal trabajo?
Eso es lo que sintió Hilke Schellmann, periodista y profesora de la Universidad de Nueva York, después de pasar cinco años investigando herramientas que ahora son ampliamente utilizadas por los empleadores para contratar, despedir y gestionar. Los bots dictan cada vez más qué anuncios de empleo vemos en línea, qué CV leen los reclutadores, qué solicitantes llegan a una entrevista final y qué empleados reciben un ascenso, una bonificación o un aviso de despido. Pero en este mundo donde los algoritmos “definen quiénes somos, dónde sobresalimos y dónde luchamos. . . ¿Qué pasa si los algoritmos se equivocan? pregunta Schellmann en El algoritmo, un relato de sus hallazgos.
Los reclutadores y gerentes tienen muchas razones para recurrir a la IA: examinar montones increíblemente grandes de CV y cubrir puestos más rápido; ayudarles a detectar personas con talento, incluso cuando provienen de entornos atípicos; tomar decisiones más justas, eliminando los prejuicios humanos; o para realizar un seguimiento del desempeño e identificar al personal problemático.
Las herramientas de selección de CV para detectar posibles sesgos pueden filtrar candidatos de ciertos códigos postales, una receta para la discriminación racial.
Pero la experiencia de Schellmann sugiere que muchos de los sistemas en el mercado pueden hacer más daño que bien. Por ejemplo, prueba un software de entrevistas en vídeo que descubre que es una persona adecuada para un puesto, incluso cuando reemplaza sus respuestas originales y plausibles con la frase repetida como loro «Me encanta el trabajo en equipo» o habla completamente en alemán.
Habla con expertos que han auditado las herramientas de selección de CV para detectar posibles sesgos y han descubierto que pueden filtrar candidatos de ciertos códigos postales, una receta para la discriminación racial; favorecer nacionalidades particulares; o ver el gusto por actividades dominadas por hombres, como el béisbol, como un indicador de éxito. Luego están los casos de trabajadores de alto rendimiento seleccionados para ser despedidos o automáticamente excluidos de la carrera para puestos para los que estaban calificados, simplemente porque habían obtenido malos resultados en juegos en línea aparentemente irrelevantes utilizados para calificar a los candidatos.
Después de jugar algunos, Schellmann se muestra escéptico de que los juegos de alta velocidad de coincidencia de patrones o las pruebas de personalidad ayuden a los reclutadores a identificar a las personas con mayor probabilidad de fracasar o sobresalir en un puesto. Los juegos también serían aún más difíciles para cualquiera que estuviera distraído con niños o tuviera una discapacidad que el software no reconociera.
Pero muchos de los problemas que encuentra Schellman no tienen que ver intrínsecamente con el uso de la IA. Los desarrolladores no pueden diseñar buenas pruebas de reclutamiento si los reclutadores no entienden por qué algunas contrataciones funcionan mejor que otras. Si un sistema está diseñado principalmente para cubrir una vacante rápidamente, no elegirá al mejor candidato.
Schellmann descubre que, a menos que los desarrolladores intervengan, las plataformas de empleo ofrecen más anuncios a los candidatos (a menudo hombres) que son más agresivos al responder a los reclutadores y postularse para puestos de alto nivel, independientemente de su experiencia. También surgen problemas porque los gerentes confían ciegamente en herramientas que estaban destinadas únicamente a informar el juicio humano, a veces bajo la creencia errónea de que los protegerá contra desafíos legales.
El aprendizaje automático puede amplificar los sesgos existentes de maneras que son difíciles de detectar, incluso cuando los desarrolladores están alerta. Los algoritmos identifican patrones entre personas a las que les ha ido bien o mal en el pasado, sin ninguna capacidad de comprender si las características que detectan son significativas. Y cuando los algoritmos se equivocan, a veces a gran escala, puede resultar increíblemente difícil para las personas descubrir el motivo, buscar reparación o incluso encontrar un ser humano con quien hablar.
El libro de Schellmann es una advertencia para cualquiera que pensara que la IA eliminaría el sesgo humano en la contratación.
Posiblemente la sección más útil del libro de Schellmann sea un apéndice que brinda consejos para quienes buscan empleo (use viñetas y evite los símbolos en su CV para que sea legible por máquina) y las personas cuyo empleador los está observando (mantenga los correos electrónicos optimistas). Pero también tiene sugerencias para los reguladores sobre cómo asegurarse de que las herramientas de inteligencia artificial se prueben antes de salir al mercado.
Como mínimo, los legisladores podrían exigir transparencia sobre los datos utilizados para entrenar modelos de IA e informes técnicos sobre su eficacia, sostiene. Lo ideal sería que las propias agencias gubernamentales examinaran las herramientas utilizadas en áreas sensibles como las políticas, la calificación crediticia o la vigilancia del lugar de trabajo.
En ausencia de tal reforma, el libro de Schellmann es una advertencia para cualquiera que pensara que la IA eliminaría el sesgo humano en la contratación, y un manual esencial para quienes buscan empleo.
El algoritmo: cómo la IA puede secuestrar su carrera y robarle el futuro por Hilke Schellmann Hurst £22/Hachette Books $30, 336 páginas
Únase a nuestro grupo de libros en línea en Facebook en FT Books Café y suscríbase a nuestro podcast Life and Art donde quiera que escuche
Read More: El algoritmo de Hilke Schellmann: por qué la IA realmente llega a su trabajo