Inicio Europa La UE debe abordar 'de forma proactiva' la discriminación de la IA,...

La UE debe abordar ‘de forma proactiva’ la discriminación de la IA, dice Jourová:


La UE no debería “copiar y pegar” la discriminación racial y los prejuicios cotidianos en algoritmos de inteligencia artificial, dijo el viernes (18 de septiembre) la vicepresidenta de Valores y Transparencia de la UE, Věra Jourová.

Al hablar sobre la publicación del plan de acción de la Comisión contra el racismo, Jourová y la Comisaria para la Igualdad, Helena Dalli, criticaron los posibles usos nefastos de la tecnología para oprimir a los grupos étnicos minoritarios.

“Tenemos que prestar mucha atención y vigilancia para no crear ningún tipo de nuevo tipo de sesgo o discriminación tecnológica, dijo Jourová. “En otras palabras, siempre digo que tenemos que actuar de forma proactiva contra copiar y pegar las imperfecciones y la injusticia del mundo real en el mundo de la IA”.

Jourová también hizo referencia al Libro Blanco de la Comisión sobre Ética e Inteligencia Artificial, publicado en febrero de este año, que establece que se podrían introducir más medidas regulatorias de la UE para tratar de evitar sesgos en la Inteligencia Artificial que “podrían conducir a una discriminación prohibida”.

Mientras tanto, el plan de acción del viernes entra en más detalles con respecto al uso de algoritmos para perpetuar los prejuicios raciales en la sociedad.

“El uso de algoritmos puede perpetuar o incluso estimular el sesgo racial si los datos para entrenar algoritmos no reflejan la diversidad de la sociedad de la UE”, dice el documento.

Deberías leer:   El gobierno británico culpa a los correos electrónicos perdidos por el caos de adquisiciones de coronavirus en la UE - EURACTIV.com

“Como ejemplo, los estudios han demostrado que los algoritmos de reconocimiento facial basados ​​en IA pueden exhibir altas tasas de clasificación errónea cuando se usan en algunos grupos demográficos, como mujeres y personas con antecedentes raciales o étnicos minoritarios. Esto puede llevar a resultados sesgados y, en última instancia, a discriminación ”, agregó.

El reconocimiento facial se ha promocionado como una tecnología particular que podría atenuar los prejuicios raciales en la sociedad.

Deberías leer:   Erdogan lanza la "bomba humana" en la UE - EURACTIV.com

En 2018, una investigación del Instituto de Tecnología de Massachusetts descubrió que el software de inteligencia artificial de reconocimiento de género producido por IBM, Microsoft y la compañía china Megvii podía identificar correctamente el género de un individuo el 99% del tiempo, pero solo para los hombres blancos, lo que representa un mayor riesgo. de identificación falsa para mujeres y minorías étnicas.

Desde entonces, tanto Microsoft como IBM han abandonado sus programas de desarrollo de reconocimiento facial por temor a que la tecnología pueda amplificar los prejuicios raciales que ya prevalecen en la sociedad.

Si bien la postura de la Comisión sobre la futura regulación de las tecnologías de reconocimiento facial ha sido vaga (los documentos filtrados de su estrategia de inteligencia artificial han planteado previamente la noción de una moratoria sobre el software), parece haber adoptado un enfoque más distinto con respecto a los algoritmos utilizados de manera perjudicial. medio.

Deberías leer:   Erdogan lanza la "bomba humana" en la UE - EURACTIV.com

En junio de este año, la vicepresidenta de política digital de la Comisión Europea, Margrethe Vestager, dijo que ciertas aplicaciones de inteligencia artificial utilizadas en el campo de la policía predictiva “no son aceptables” en la UE.

“Si se desarrolla y se usa adecuadamente, puede obrar milagros, tanto para nuestra economía como para nuestra sociedad”, dijo Vestager. “Pero la inteligencia artificial también puede hacer daño”, advirtió, y destacó que algunas aplicaciones pueden generar discriminación, amplificando prejuicios y sesgos en la sociedad.

“Los inmigrantes y las personas que pertenecen a ciertos grupos étnicos pueden ser blanco de técnicas de vigilancia predictiva que dirigen toda la atención de las fuerzas del orden hacia ellos. Esto no es aceptable.”

En el espacio político, en junio concluyó una consulta pública sobre el enfoque de la Comisión para regular la IA, y cualquier postura potencialmente más dura sobre el uso de tales tecnologías se revisará como parte de un seguimiento del Libro Blanco de IA de la Comisión, que está programado que llegará a principios de 2021.

Deberías leer:   ¿Bulgaria está recibiendo ayuda de la UE para combatir el impacto del coronavirus? - EURACTIV.com

[Edited by Zoran Radosavljevic]

Most Popular

NorCal enfrenta clima de incendios mientras SoCal llovizna

Después de meses de incendios forestales y un calor récord, los angelinos se despertaron el jueves con algo novedoso: una llovizna ligera.El Servicio Meteorológico...

Anna Wintour y Shelby Bryan se separan después de 20 años

Anna Wintour y Shelby Bryan lo han llamado renuncias, informan varios medios. El largo tiempo Moda El editor en jefe, que también es...

VH1 anuncia el especial de reunión “I Love New York” con Tiffany “New York” Pollard — Vivica A. Fox será la anfitriona

#Roommates, si ha estado esperando volver a visitar el icónico reality show de mediados de los 200 "I Love New York" ... ¡está...