DENVER – Los primeros intentos de regular los programas de inteligencia artificial que desempeñan un papel oculto en la contratación, la vivienda y las decisiones médicas de millones de estadounidenses se enfrentan a presiones de todos lados y fracasan en los parlamentos estatales de todo el país.
Sólo uno de los siete proyectos de ley destinados a prevenir la tendencia de AI a discriminar al tomar decisiones importantes (incluido quién es contratado, dinero para una casa o atención médica) ha sido aprobado. El gobernador de Colorado, Jared Polis, firmó el proyecto de ley con vacilación el viernes.
El proyecto de ley de Colorado y los que fracasaron en Washington, Connecticut y otros lugares enfrentaron batallas en muchos frentes, incluso entre grupos de derechos civiles y la industria tecnológica, y los legisladores temen adentrarse en una tecnología que pocos aún entienden y los gobernadores están preocupados por ser el estado extraño. y asustar a las nuevas empresas de IA.
Polis firmó el proyecto de ley de Colorado “con reservas” y dijo en un comunicado que desconfiaba de las regulaciones que empañan la innovación en IA. El proyecto de ley tiene una duración de dos años y puede modificarse antes de que se convierta en ley.
«Animo (a los legisladores) a mejorar significativamente esto antes de que entre en vigor», escribió Polis.
La propuesta de Colorado, junto con seis proyectos de ley similares, son complejos, pero requerirán en términos generales que las empresas evalúen el riesgo de discriminación por su IA e informen a los clientes cuando se utilizó IA para ayudarlos a tomar una decisión importante para ellos.
Los proyectos de ley son independientes de los más de 400 proyectos de ley relacionados con la IA que se han debatido este año. La mayoría están dirigidas a sectores de la IA, como el uso de deepfakes en elecciones o para crear pornografía.
Los siete proyectos de ley son más ambiciosos, se aplican en las principales industrias y apuntan a la discriminación, uno de los problemas más perversos y complejos de la tecnología.
«En realidad, no tenemos visibilidad de los algoritmos que se utilizan, si funcionan o no, o si somos discriminados», dijo Rumman Chowdhury, enviado de IA del Departamento de Estado de EE. UU. que anteriormente dirigió el equipo de ética de IA de Twitter. .
Si bien las leyes contra la discriminación ya existen, quienes estudian la discriminación por IA dicen que es una bestia diferente, que Estados Unidos ya está atrasada en la regulación.
«Las computadoras están tomando decisiones sesgadas a gran escala», dijo Christine Webber, abogada de derechos civiles que ha trabajado en demandas colectivas por discriminación, incluidas las contra Boeing y Tyson Foods. Ahora, Webber está a punto de obtener la aprobación final de uno de los primeros acuerdos del país en una demanda colectiva sobre la discriminación por IA.
“Tampoco, debería decir, que los viejos sistemas estuvieran perfectamente libres de prejuicios”, dijo Webber. Pero “una sola persona sólo puede ver un número determinado de currículums al día. Por lo tanto, sólo se pueden tomar un número limitado de decisiones sesgadas en un día y la computadora puede hacerlo rápidamente entre un gran número de personas”.
Cuando solicita un trabajo, un apartamento o un préstamo hipotecario, es muy probable que la IA esté evaluando su solicitud: enviándola a la fila, asignándole una puntuación o filtrándola. Se estima que hasta el 83% de los empleadores utilizan algoritmos para ayudar en la contratación, según la Comisión de Igualdad de Oportunidades en el Empleo.
La propia IA no sabe qué buscar en una solicitud de empleo, por lo que se enseña basándose en currículums anteriores. Los datos históricos que se utilizan para entrenar algoritmos pueden contener sesgos de contrabando.
Amazon, por ejemplo, trabajó en un algoritmo de contratación que se basó en currículums antiguos: en su mayoría candidatos masculinos. Al evaluar a los nuevos solicitantes, degradó los currículums con la palabra “para mujeres” o que enumeraban universidades para mujeres porque no estaban representadas en los datos históricos (los currículums) de los que había aprendido. El proyecto fue hundido.
La demanda colectiva de Webber alega que un sistema de inteligencia artificial que puntúa las solicitudes de alquiler asignaba desproporcionadamente puntuaciones más bajas a los solicitantes negros o hispanos. Un estudio encontró que un sistema de inteligencia artificial creado para evaluar las necesidades médicas pasó por alto a los pacientes negros para recibir atención especial.
Los estudios y las demandas han permitido vislumbrar lo que esconden los sistemas de IA, pero la mayoría de los algoritmos permanecen ocultos. Los estadounidenses en gran medida desconocen que se están utilizando estas herramientas, según muestran las encuestas de Pew Research. Por lo general, las empresas no están obligadas a revelar explícitamente que se utilizó una IA.
«Simplemente abrir el telón para que podamos ver quién está realmente haciendo la evaluación y qué herramienta se está utilizando es un primer paso enorme», dijo Webber. «Las leyes existentes no funcionan si no podemos obtener al menos alguna información básica».
Eso es lo que el proyecto de ley de Colorado, junto con otro proyecto de ley sobreviviente en California, están tratando de cambiar. Los proyectos de ley, incluida una propuesta emblemática en Connecticut que fue anulada por la oposición del gobernador, son en gran medida similares.
El proyecto de ley de Colorado exigirá que las empresas que utilicen IA para ayudar a tomar decisiones importantes para los estadounidenses evalúen anualmente su IA en busca de posibles sesgos; implementar un programa de supervisión dentro de la empresa; informar al fiscal general del estado si se encontró discriminación; e informar a los clientes cuando se utilizó una IA para ayudarlos a tomar una decisión, incluida la opción de apelar.
Los sindicatos y los académicos temen que depender de que las empresas se supervisen a sí mismas signifique que será difícil abordar de manera proactiva la discriminación en un sistema de inteligencia artificial antes de que cause daños. Las empresas temen que la transparencia forzada pueda revelar secretos comerciales, incluso en posibles litigios, en este nuevo campo hipercompetitivo.
Las empresas de inteligencia artificial también presionaron para que se estableciera una disposición que sólo permitiera al fiscal general, no a los ciudadanos, presentar demandas en virtud de la nueva ley, y en general la recibieron. Los detalles de ejecución se han dejado en manos del fiscal general.
Si bien las empresas de IA más grandes han estado más o menos de acuerdo con estas propuestas, un grupo de empresas de IA más pequeñas con sede en Colorado dijeron que los requisitos podrían ser manejables por empresas gigantes de IA, pero no por nuevas empresas en ciernes.
«Estamos en una nueva era de sopa primordial», dijo Logan Cerkovnik, fundador de Thumper.ai, refiriéndose al campo de la IA. «Tener una legislación demasiado restrictiva que nos obligue a hacer definiciones y restrinja nuestro uso de la tecnología mientras ésta se está formando será perjudicial para la innovación».
Todos estuvieron de acuerdo, junto con muchas empresas de inteligencia artificial, en que es fundamental abordar lo que formalmente se llama “discriminación algorítmica”. Pero dijeron que el proyecto de ley tal como está redactado no alcanza ese objetivo. En cambio, propusieron reforzar las leyes antidiscriminatorias existentes.
A Chowdhury le preocupa que las demandas sean demasiado costosas y consuman mucho tiempo para ser una herramienta eficaz para hacer cumplir la ley, y que las leyes deberían, en cambio, ir más allá de lo que incluso Colorado propone. En cambio, Chowdhury y los académicos han propuesto una organización independiente y acreditada que pueda probar explícitamente posibles sesgos en un algoritmo de IA.
«Se puede comprender y tratar con una sola persona que sea discriminatoria o parcial», afirmó Chowdhury. «¿Qué hacemos cuando esté integrado en toda la institución?»