Por Matt O’Brien, escritor de tecnología AP
CAMBRIDGE, Massachusetts (AP) – Después de retirarse de sus programas de diversidad, equidad e inclusión de trabajo, ahora las compañías tecnológicas ahora podrían enfrentar un segundo cálculo sobre su trabajo dei en productos de IA.
En la Casa Blanca y el Congreso liderado por los republicanos, «Woke AI» ha reemplazado la discriminación algorítmica dañina como un problema que necesita arreglar. Los esfuerzos pasados para «avanzar en la equidad» en el desarrollo de la IA y frenar la producción de «resultados dañinos y sesgados» son el objetivo de la investigación, según citaciones enviadas a Amazon, Google, Meta, Microsoft, OpenAi y otras 10 compañías tecnológicas el mes pasado por el Comité Judiciario de la Cámara.
Y la rama estándar del Departamento de Comercio de los Estados Unidos ha eliminado las menciones de equidad de IA, seguridad y «IA responsable» en su apelación de colaboración con investigadores externos. En su lugar, está instruyendo a los científicos que se concentren en «reducir el sesgo ideológico» de una manera que «habilite la competitividad humana floreciente y económica», según una copia del documento obtenido por Associated Press.
De alguna manera, los trabajadores tecnológicos están acostumbrados a un latigazo de prioridades impulsadas por Washington que afectan su trabajo.
Pero el último cambio ha generado preocupaciones entre los expertos en el campo, incluido el sociólogo de la Universidad de Harvard Ellis Monk, a quien Google se acercó a hace varios años para ayudar a hacer que sus productos de IA sean más inclusivos.
En aquel entonces, la industria tecnológica ya sabía que tenía un problema con la rama de la IA que entrena a las máquinas para «ver» y comprender las imágenes. La visión por computadora tenía una gran promesa comercial, pero se hizo eco de los prejuicios históricos que se encuentran en las tecnologías de cámara anteriores que retrataban a las personas negras y marrones en una luz poco halagadora.
«Las personas negras o las personas de piel más oscura vendrían en la imagen y a veces nos vimos ridículos», dijo Monk, un erudito de colorismo, una forma de discriminación basada en los tonos de piel de las personas y otras características.
Google adoptó una escala de color inventada por Monk que mejoró la forma en que sus herramientas de imagen de IA retratan la diversidad de los tonos de piel humanos, reemplazando un estándar de décadas diseñado originalmente para médicos que tratan a los pacientes con dermatología blanca.
«Los consumidores definitivamente tuvieron una gran respuesta positiva a los cambios», dijo.
Ahora Monk se pregunta si tales esfuerzos continuarán en el futuro. Si bien no cree que su escala de tono de piel de monje se vea amenazada porque ya está horneada en docenas de productos en Google y en otros lugares, incluidos los teléfonos con cámara, los videojuegos, los generadores de imágenes de inteligencia artificial, él y otros investigadores se preocupan de que el nuevo estado de ánimo sea escalofriante futuras iniciativas y financiamiento para que la tecnología funcione mejor para todos.
«Google quiere que sus productos funcionen para todos, en India, China, África, etc., esa parte es una especie de dei-inmune», dijo Monk. «¿Pero podrían reducir la financiación futura para ese tipo de proyectos? Absolutamente, cuando el estado de ánimo político cambia y cuando hay mucha presión para llegar al mercado muy rápidamente».
Trump ha reducido cientos de subvenciones de financiación de la ciencia, tecnología y salud que tocan los temas de DEI, pero su influencia en el desarrollo comercial de chatbots y otros productos de IA es más indirecta. Al investigar a las compañías de IA, el representante republicano Jim Jordan, presidente del Comité Judicial, dijo que quiere averiguar si la administración del ex presidente Joe Biden «coaccionó o coludió con» para censurar el discurso legal.
Michael Kratsios, director de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca, dijo en un evento de Texas este mes que las políticas de IA de Biden estaban «promoviendo las divisiones sociales y la redistribución en nombre de la equidad».
La administración Trump se negó a poner a disposición Kratsios para una entrevista, pero citó varios ejemplos de lo que quiso decir. Una era una línea de una estrategia de investigación de la IA de la era Biden que decía: «Sin los controles adecuados, los sistemas de IA pueden amplificar, perpetuar o exacerbar los resultados inequitativos o indeseables para individuos y comunidades».
Incluso…








