La emblemática ley de sesgo de IA de Nueva York genera incertidumbre

Las empresas y sus proveedores de servicios están lidiando con la forma de cumplir con el mandato de la Ciudad de Nueva York para las auditorías de los sistemas de inteligencia artificial utilizados en la contratación.

Una ley de la ciudad de Nueva York que entrará en vigencia en enero requerirá que las empresas realicen auditorías para evaluar los sesgos, incluidos los relacionados con la raza y el género, en los sistemas de IA que utilizan para la contratación. Según la ley de Nueva York, la empresa contratante es responsable en última instancia, y puede enfrentar multas, por las infracciones.

Pero el requisito ha planteado algunos desafíos de cumplimiento. A diferencia de las auditorías financieras familiares, refinadas durante décadas de experiencia contable, el proceso de auditoría de IA es nuevo y no tiene pautas claramente establecidas.

“Existe una gran preocupación, que es que no está claro exactamente qué constituye una auditoría de IA”, dijo Andrew Burt, socio gerente de la firma de abogados BNH centrada en IA. “Si eres una organización que usa algún tipo de estas herramientas… puede ser bastante confuso”.

La ley de la ciudad afectará potencialmente a un gran número de empleadores. La ciudad de Nueva York en 2021 tenía poco menos de 200,000 empresas, según el Departamento de Trabajo del Estado de Nueva York.

Un portavoz de la ciudad de Nueva York dijo que su Departamento de Protección al Consumidor y al Trabajador ha estado trabajando en reglas para implementar la ley, pero no tenía un cronograma de cuándo podrían publicarse. No respondió a las consultas sobre si la ciudad tenía una respuesta a las quejas sobre la supuesta falta de orientación.

Kevin White, copresidente del equipo de trabajo y empleo de Hunton Andrews Kurth LLP.


Foto:

Hunton Andrews Kurth LLP

Más allá del impacto inmediato en la ciudad de Nueva York, los empleadores confían en que pronto se requerirán requisitos de auditoría en muchas más jurisdicciones, dijo Kevin White, copresidente del equipo laboral y de empleo de la firma de abogados Hunton Andrews Kurth LLP.

La IA se ha infiltrado constantemente en los departamentos de recursos humanos de muchas empresas. Casi uno de cada cuatro utiliza la automatización, la IA o ambas para respaldar las actividades de recursos humanos, según una investigación que la Sociedad para la Gestión de Recursos Humanos publicó a principios de este año. El número sube al 42% entre las empresas con más de 5.000 empleados.

Otros estudios han estimado niveles de uso aún más altos entre las empresas.

La tecnología de inteligencia artificial puede ayudar a las empresas a contratar e incorporar candidatos más rápidamente en medio de una «guerra por el talento», dijo Emily Dickens, directora de asuntos gubernamentales de SHRM.

Emily Dickens, jefa de asuntos gubernamentales de la Society for Human Resource Management.


Foto:

Sociedad para la Gestión de Recursos Humanos

Los impulsores de la tecnología han argumentado que, si se usa bien, también puede evitar que sesgos injustos se infiltren en las decisiones de contratación. Una persona podría, por ejemplo, inconscientemente ponerse del lado de un candidato que asistió a la misma universidad oa las mismas raíces para cierto equipo, mientras que las computadoras no tienen alma maters o equipos deportivos favoritos.

Una mente humana con sus motivaciones ocultas es «la última caja negra», a diferencia de un algoritmo cuyas respuestas a diferentes entradas pueden probarse, dijo Lindsey Zuloaga, científica de datos en jefe de HireVue Inc. HireVue, que enumera a Unilever PLC y Kraft Heinz Co.

entre sus clientes, ofrece software que puede automatizar entrevistas.

Pero, si las empresas no tienen cuidado, la IA puede “estar muy sesgada a escala. Lo que da miedo”, dijo Zuloaga, y agregó que apoya el escrutinio que los sistemas de IA han comenzado a recibir.

Los sistemas de HireVue se auditan regularmente para detectar sesgos, y la empresa quiere asegurarse de que los clientes se sientan cómodos con sus herramientas, dijo.

Lindsey Zuloaga, científica de datos en jefe de HireVue.


Foto:

HireVue

Una auditoría de los algoritmos de HireVue publicada en 2020, por ejemplo, descubrió que era más probable que los candidatos de minorías dieran respuestas cortas a las preguntas de las entrevistas, diciendo cosas como «No sé», lo que daría lugar a que sus respuestas se marcaran como humanas. revisión. HireVue cambió la forma en que su software trata las respuestas cortas para abordar el problema.

Las empresas están preocupadas por la «opacidad y falta de estandarización» con respecto a lo que se espera en la auditoría de IA, dijo la Cámara de Comercio de EE. UU., que cabildea en nombre de las empresas.

Aún más preocupante es el posible impacto en las pequeñas empresas, dijo Jordan Crenshaw, vicepresidente del Centro de Participación Tecnológica de la Cámara.

Muchas empresas han tenido que esforzarse para determinar hasta qué punto utilizan los sistemas de inteligencia artificial en el proceso de empleo, dijo el Sr. White de Hunton. Las empresas no han adoptado un enfoque uniforme sobre qué función ejecutiva «posee» la IA. En algunos, los recursos humanos impulsan el proceso, y en otros, lo impulsa el director de privacidad o la tecnología de la información, dijo.

“Con bastante rapidez se dan cuenta de que tienen que formar un comité en toda la empresa para averiguar dónde podría estar sentada toda la IA”, dijo.

Debido a que Nueva York no ofrece pautas claras, espera que se adopten una variedad de enfoques en las auditorías. Pero las dificultades para cumplir no están haciendo que las empresas regresen a los procesos de una era anterior a la IA, dijo.

“Es demasiado útil para volver a guardarlo en el estante”, dijo.

Algunos críticos han argumentado que la ley de Nueva York no va lo suficientemente lejos. El Proyecto de Supervisión de Tecnología de Vigilancia, la Unión de Libertades Civiles de Nueva York y otras organizaciones señalaron la falta de estándares para las auditorías de sesgo, pero presionaron por sanciones más duras en una carta enviada antes de la aprobación de la ley. Argumentaron que las empresas que venden herramientas consideradas sesgadas deberían enfrentar un castigo, entre otras sugerencias.

Anthony Habayeb, director ejecutivo de Monitaur.


Foto:

monitor

Los reguladores no buscarán necesariamente la perfección en los primeros días.

“El esfuerzo de buena fe es realmente lo que buscan los reguladores”, dijo Liz Grennan, colíder de confianza digital en McKinsey & Co. “Francamente, los reguladores van a aprender sobre la marcha”.

La Sra. Grennan dijo que algunas empresas no están esperando hasta la fecha de vigencia de enero para actuar.

Las empresas en parte están motivadas tanto por el riesgo reputacional como por el temor de que un regulador tome medidas. Para las grandes corporaciones con marcas de alto perfil, las preocupaciones sobre el impacto social y los problemas ambientales, sociales y de gobierno podrían superar las preocupaciones de ser “golpeadas por un regulador”, dijo Anthony Habayeb, director ejecutivo de la compañía de software de gobierno de inteligencia artificial Monitaur Inc.

“Si soy una empresa más grande… quiero poder demostrar que sé que la IA podría tener problemas”, dijo Habayeb. “Y en lugar de esperar a que alguien me dijera qué hacer… construí controles alrededor de estas aplicaciones porque sé que, como con cualquier software, las cosas pueden salir mal y, de hecho, salen mal”.

Nueva York está implementando una nueva ley que requiere que los empleadores enumeren los rangos de salario en las ofertas de trabajo. Leyes similares en lugares como Colorado tienen como objetivo igualar el campo de juego para los solicitantes. Pero no todos están aceptando los cambios. Ilustración: Adele Morgan

Más de Diario de riesgo y cumplimiento

Escribir a Richard Vanderford en [email protected]

Copyright ©2022 Dow Jones & Company, Inc. Todos los derechos reservados. 87990cbe856818d5eddac44c7b1cdeb8

Fuente: WSJ