Como la presidenta de la EEOC, Charlotte Burrows, enfatizó que las leyes de derechos civiles existentes todavía se aplican a la IA. Quiere que la EEOC y el sector de recursos humanos asuman un papel de liderazgo para mostrar cómo el gobierno puede lidiar con la nueva tecnología en diferentes entornos, y quiere resolverlo rápidamente.
“Se trata de derechos civiles”, dijo Sonderling, quien también fue jefe interino de la División de Horas y Salarios del Departamento de Trabajo. «Lo que está en juego va a ser mayor».
En una conversación con POLITICO, el comisionado habló sobre cómo asumir la IA ha dado forma a su papel en la EEOC, el nuevo enfoque de la comisión en Silicon Valley, y si sabrá si un robot lo rechaza ilegalmente en su próximo trabajo.
Esta entrevista ha sido editada para mayor extensión y claridad.
La EEOC es una agencia pequeña y, de repente, estás gestionando una parte bastante importante de esta revolución tecnológica y su implementación. ¿Hasta qué punto la introducción de nueva IA ha sido perjudicial para la EEOC?
Está teniendo un impacto tremendo. Una función fundamental de mi trabajo como comisionado es concienciar a todas las partes. Lo que he estado haciendo es decir: “Cualquiera que sea el uso de la IA que estés usando, estas son las leyes que se aplicarán. Estos son los estándares que la EEOC exigirá si realizamos una investigación”.
Y ya sabes, para muchas personas que no están familiarizadas con la EEOC, con la legislación laboral, aumentar el cumplimiento puede tener un impacto significativo. El hecho de que la aplicación de la ley aún no haya comenzado no significa que la agencia no tenga un papel.
La diferencia con la IA es su escalabilidad. Antes, había una persona que potencialmente tomaba una decisión de contratación sesgada.
La IA, al poder realizarse a escala, puede afectar a cientos de miles o millones de solicitantes.
¿Con quién hablas más sobre IA? ¿Cómo son esas conversaciones?
Desde que comencé a analizar esto a principios de 2021, he tenido la puerta abierta para que cualquiera pueda comunicarse con nosotros para discutirlo porque el ecosistema actual con IA es muy diferente a lo que está acostumbrada la EEOC.
Antes de AI, la EEOC estaba muy familiarizada con cuatro grupos, sobre los que tenemos jurisdicción: empleadores, empleados, sindicatos y agencias de empleo. Ese ha sido nuestro mundo desde los años 1960.
Pero ahora con [AI] Cuando llega la tecnología, tenemos todos estos grupos diferentes: capitalistas de riesgo e inversores que quieren invertir en tecnología para cambiar el lugar de trabajo, programadores informáticos altamente sofisticados y empresarios que quieren desarrollar estos productos. Y luego están las empresas que buscan implementar estos [products] y empleados que van a estar sujetos a esta tecnología.
Al fin y al cabo, nadie quiere invertir en un producto que violará los derechos civiles. Nadie quiere fabricar un producto que viole los derechos civiles. Nadie querrá comprar y utilizar un producto que viole los derechos civiles, y nadie querrá verse sometido a un producto que viole sus derechos civiles.
Es simplemente un escenario muy diferente ahora para agencias como la nuestra, que realmente no tenían ese componente tecnológico innovador antes de que se utilizara esta tecnología.
La segunda parte es en el Cerro. Muchos legisladores no están familiarizados con el funcionamiento de esta tecnología. Creo que es muy importante que agencias individuales como la EEOC trabajen constantemente con el Capitolio y le brinden esa asistencia.
¿Tiene la EEOC los recursos para hacer frente al surgimiento de la IA? ¿Especialmente teniendo en cuenta, como usted ha dicho, la posibilidad de que se intensifique la discriminación?
Siempre califico; no va a discriminar automáticamente por sí solo. Está en el diseño de los sistemas y el uso de los sistemas.
Ahora mismo sabemos cómo investigar las decisiones laborales. Sabemos cómo investigar el sesgo en el empleo. Y no importa si proviene de una herramienta de inteligencia artificial o de un humano.
Si alguna vez podremos tener las habilidades y los recursos para investigar realmente la tecnología e investigar algoritmos. [that] Sería una discusión mucho más amplia para el Congreso, para todas las agencias. Congreso [would be the one] para darnos más autoridad. O más financiación para contratar más investigadores o expertos en tecnologías específicas: eso es algo que todas las agencias agradecerían. O si van a crear una nueva agencia que trabajará codo a codo con otras agencias, esa es realmente la prerrogativa del Congreso, en qué dirección van a ir para capacitar a estas agencias policiales para lidiar con la tecnología cambiante.
Pero en este momento, tengo mucha confianza en que si sufrimos algún tipo de discriminación, ya sea por IA o por humanos, podremos llegar al fondo del asunto. Podemos utilizar las leyes de larga data.
Bien, hablando como empleado, porque sé que uno de los lugares en los que más vemos IA es en las decisiones de contratación, ¿hay alguna forma de saber ahora mismo si no conseguí un trabajo debido a la IA en la discriminación en la contratación? ?
Sin requisitos de consentimiento, sin que los empleadores digan: «Estará sujeto a esta herramienta y esto es lo que hará la herramienta durante la entrevista», no tiene idea, ¿verdad? Quiero decir, simplemente no tienes idea de lo que se dice en una entrevista. Especialmente ahora que las entrevistas se realizan en línea y estás en Zoom. No tienes idea de lo que sucede en el fondo, si tu rostro está siendo analizado, si tu voz está siendo analizada.
Da un paso atrás, así es desde hace mucho tiempo. En general, no se sabe quién toma una decisión laboral. No se sabe qué factores suceden cuando un ser humano toma una decisión laboral y qué hay realmente en su cerebro.
Hemos estado lidiando con la caja negra de la toma de decisiones humana desde que existimos, desde la década de 1960. Realmente no se sabe qué factores influyen en las decisiones laborales legales o ilegales o cuándo hay prejuicios. Para empezar, son difíciles de discernir.
Lo mismo ocurre ahora con la IA. Es por eso que algunas de estas propuestas dicen que se necesita consentimiento, que los empleados deben entender cuáles son sus derechos, si están siendo sometidos a una entrevista algorítmica.
¿Deberían los empleadores revelar si están utilizando estas herramientas?
Eso es algo que ellos deben decidir.
Se puede hacer una analogía: ¿Se debería exigir a los empleadores que tengan transparencia salarial? El gobierno federal no exige transparencia salarial en la publicidad de empleos, pero se ha visto a muchos estados impulsar leyes de transparencia salarial. Y lo que hemos visto es que muchos empleadores revelan voluntariamente sus salarios en estados en los que no están obligados a hacerlo. Se convierte más bien en una decisión política para los empleadores multinacionales y de varios estados que tendrán que empezar a lidiar con este mosaico de leyes reguladoras de la IA.
Con la analogía de la transparencia salarial, se está empezando a ver que muchas empresas en todos los estados dicen: «Vamos a hacerlo en todas partes». Y es posible que lo vea en el futuro con estas herramientas de inteligencia artificial. Esa es más una decisión empresarial, una decisión de política estatal y local, que la EEOC.
En este momento, los proveedores de IA no son responsables de las decisiones de contratación tomadas por sus productos que puedan violar la ley. Todo depende de los empleadores. ¿Ves que eso está cambiando?
Es otra pregunta complicada. Por supuesto, no hay una respuesta definitiva, porque nunca antes se había probado en un litigio importante en los tribunales.
Desde la perspectiva de la EEOC, desde la perspectiva de la aplicación de la ley, vamos a responsabilizar al empleador si alguien es despedido debido a prejuicios, ya sea que AI haya sido o no quien lo despidió por prejuicios. Desde nuestra perspectiva, la responsabilidad será la misma en ambos sentidos.
Pero eso no minimiza de ninguna manera el debate potencial sobre la responsabilidad de los proveedores con algunas de estas propuestas de leyes estatales o extranjeras, o litigios privados. Simplemente no hemos visto eso todavía.
¿Deberían todas las agencias federales hacer más en materia de IA?
Cuanta más orientación, más podamos hacer para ayudar a los empleadores que estén dispuestos a cumplir, es realmente todo lo que podemos hacer. Todas las agencias deben hacer eso, sin importar cuál sea el contexto. [The Department of Housing and Urban Development] Al usar IA en la vivienda, deberían publicar información para los proveedores y los desarrollos de viviendas que la utilizan, y también deberían publicar información para aquellos que van a solicitar vivienda. Lo mismo ocurre en finanzas, crédito, OSHA, salarios y horas de trabajo en cuanto a cómo afectará la compensación; todas las agencias existentes ahora pueden hacer más donde la tecnología ya se está utilizando.
Independientemente de la legislación sobre esta tecnología que avanza en el Congreso, todavía hay casos de uso en este momento. Y todavía hay leyes vigentes desde hace mucho tiempo en las distintas agencias sobre cómo se aplicará. Muchas agencias están haciendo eso, como la EEOC, como la [Consumer Financial Protection Bureau]el [Federal Trade Commission].
¿Existe una división política al respecto?
Es bipartidista. Garantizar que no se produzcan violaciones de la ley es algo bueno.
Cuanta menos aplicación tengamos de esto es algo bueno porque los empleados no verán violados sus derechos y los empleadores no violarán estas leyes. Todos pueden estar de acuerdo en eso. ¿Dónde está el debate político sobre esto? ¿Deberíamos liderar la aplicación de la ley y guiarnos en los sistemas judiciales?
Siempre he dicho que primero debemos liderar el cumplimiento. Nadie quiere que la gente sufra daño.