Los departamentos de recursos humanos utilizan cada vez más el software de inteligencia artificial para seleccionar currículums, realizar entrevistas en vídeo y evaluar la agilidad mental de las personas que buscan empleo.
Ahora, algunas de las corporaciones más grandes de Estados Unidos se están uniendo a un esfuerzo para evitar que la tecnología produzca resultados sesgados que podrían perpetuar o incluso empeorar la discriminación pasada.
Data & Trust Alliance, anunciada el miércoles, ha contratado a importantes empleadores en una variedad de industrias, incluidas CVS Health, Deloitte, General Motors, Humana, IBM, Mastercard, Meta (la empresa matriz de Facebook), Nike y Walmart.
El grupo empresarial no es una organización de cabildeo ni un grupo de expertos. En cambio, ha desarrollado un sistema de evaluación y puntuación para software de inteligencia artificial.
Data & Trust Alliance, que recurre a expertos corporativos y externos, ha diseñado una evaluación de 55 preguntas, que cubre 13 temas, y un sistema de puntuación. El objetivo es detectar y combatir el sesgo algorítmico.
“No se trata solo de adoptar principios, sino de implementar algo concreto”, dijo Kenneth Chenault, copresidente del grupo y ex director ejecutivo de American Express, que acordó adoptar el conjunto de herramientas anti-sesgo.
Las empresas están respondiendo a las preocupaciones, respaldadas por un amplio cuerpo de investigación, de que los programas de inteligencia artificial pueden producir inadvertidamente resultados sesgados. Los datos son el combustible del software de IA moderno, por lo que los datos seleccionados y cómo se emplean para hacer inferencias son cruciales.
Si los datos utilizados para entrenar un algoritmo son en gran parte información sobre hombres blancos, lo más probable es que los resultados estén sesgados en contra de las minorías o las mujeres. O si los datos utilizados para predecir el éxito en una empresa se basan en quién lo ha hecho bien en el pasado, el resultado puede ser una versión reforzada algorítmicamente del sesgo pasado.
Los conjuntos de datos aparentemente neutrales, cuando se combinan con otros, pueden producir resultados que discriminan por raza, género o edad. El cuestionario del grupo, por ejemplo, pregunta sobre el uso de tales datos «proxy», incluido el tipo de teléfono celular, afiliaciones deportivas y membresías de clubes sociales.
Los gobiernos de todo el mundo se están moviendo para adoptar reglas y regulaciones. La Unión Europea ha propuesto un marco regulatorio para la IA. La Casa Blanca está trabajando en una «declaración de derechos» para la IA.
En una nota de advertencia para las empresas sobre el uso de la tecnología, la Comisión Federal de Comercio advirtió: «Hágase responsable, o esté preparado para que la FTC lo haga por usted».
La Alianza de Datos y Confianza busca abordar el peligro potencial del uso temprano de algoritmos poderosos en las decisiones de la fuerza laboral, en lugar de reaccionar después de que los daños generalizados sean evidentes, como hizo Silicon Valley en asuntos como la privacidad y la amplificación de la desinformación.
“Tenemos que dejar atrás la era de ‘moverse rápido y romper cosas y resolverlo más tarde’”, dijo Chenault, quien estuvo en la junta de Facebook durante dos años, hasta 2020.
Corporate America está impulsando programas para una fuerza laboral más diversa. Chenault, quien ahora es presidente de la firma de capital de riesgo General Catalyst, es uno de los afroamericanos más prominentes en los negocios.
Cuando se le habló de la nueva iniciativa, Ashley Casovan, directora ejecutiva del Responsible AI Institute, una organización sin fines de lucro que desarrolla un sistema de certificación para productos de inteligencia artificial, dijo que el enfoque enfocado y los compromisos de las grandes empresas eran alentadores.
«Pero hacer que las empresas lo hagan por su cuenta es problemático», dijo Casovan, quien asesora a la Organización para la Cooperación y el Desarrollo Económicos en cuestiones de inteligencia artificial. «Creemos que, en última instancia, esto debe ser realizado por una autoridad independiente».
El grupo empresarial surgió de conversaciones entre líderes empresariales que estaban reconociendo que sus empresas, en casi todas las industrias, se estaban «convirtiendo en empresas de datos e inteligencia artificial», dijo Chenault. Y eso significó nuevas oportunidades, pero también nuevos riesgos.
El grupo fue reunido por Chenault y Samuel Palmisano, copresidente de la alianza y ex director ejecutivo de IBM, a partir de 2020, y llamaron principalmente a los directores ejecutivos de las grandes empresas.
Decidieron centrarse en el uso de la tecnología para respaldar las decisiones de la fuerza laboral en la contratación, promoción, capacitación y compensación. Se asignaron empleados senior de sus empresas para ejecutar el proyecto.
Las encuestas internas mostraron que sus empresas estaban adoptando software guiado por IA en recursos humanos, pero la mayor parte de la tecnología provenía de proveedores. Y los usuarios corporativos tenían poca comprensión de qué datos usaban los creadores de software en sus modelos algorítmicos o cómo funcionaban esos modelos.
Para desarrollar una solución, el grupo corporativo incorporó a su propia gente en recursos humanos, análisis de datos, legal y adquisiciones, pero también a los proveedores de software y expertos externos. El resultado es un sistema de detección, medición y mitigación de sesgos para examinar las prácticas de datos y el diseño de software de recursos humanos.
«Cada algoritmo tiene valores humanos incrustados en él, y esto nos da otra lente para mirar eso», dijo Nuala O’Connor, vicepresidente senior de ciudadanía digital en Walmart. «Esto es práctico y operativo».
El programa de evaluación se desarrolló y perfeccionó durante el año pasado. El objetivo era que se aplicara no solo a los principales fabricantes de software de recursos humanos como Workday, Oracle y SAP, sino también a la gran cantidad de empresas más pequeñas que han surgido en el campo de rápido crecimiento llamado «tecnología del trabajo».
Muchas de las preguntas del cuestionario anti-sesgo se centran en los datos, que son la materia prima de los modelos de IA.
«La promesa de esta nueva era de datos e IA se perderá si no hacemos esto de manera responsable», dijo Chenault.