La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) ha lanzado una consulta global en línea sobre la ética de la inteligencia artificial (IA), que será utilizada por el grupo internacional de expertos en IA de la organización para ayudar a redactar un marco que regule cómo funciona la tecnología aplicado a nivel mundial.
los unidad multidisciplinaria de 24 especialistas en IA, conocido como el Grupo de Expertos Ad Hoc (AHEG), se formó en marzo de 2020 y se le encomendó la tarea de producir un borrador de recomendación de la Unesco que tenga en cuenta los impactos de gran alcance de la IA, incluso en el medio ambiente, los mercados laborales y la cultura.
los primer borrador de texto de su recomendación se publicó el 15 de mayo de 2020, y la Unesco ahora invita al público a comentar hasta el 31 de julio de 2020.
Esbozó 11 principios para la «investigación, diseño, desarrollo, implementación y uso de sistemas de IA», que incluyen justicia, responsabilidad y rendición de cuentas, supervisión y determinación humana, sostenibilidad, gobernanza adaptativa y de múltiples partes interesadas, y privacidad, entre otros.
El texto también describió seis valores que proporcionarían la base para estos principios, que son la dignidad humana, los derechos humanos y las libertades fundamentales, sin dejar a nadie atrás, viviendo en armonía, confiabilidad y protección del medio ambiente.
«Es crucial que tantas personas como sea posible participen en esta consulta, para que se escuchen voces de todo el mundo durante el proceso de redacción del primer instrumento normativo global sobre la ética de la IA», dijo Audrey Azoulay, directora general. de la Unesco
La recomendación final se presentará a los Estados miembros para su adopción durante el 41S t sesión de la conferencia general de la Unesco en noviembre de 2021.
«La Unesco está convencida de que existe una necesidad urgente de un instrumento global sobre la ética de la IA para garantizar que los problemas éticos, sociales y políticos puedan abordarse adecuadamente tanto en tiempos de paz como en situaciones extraordinarias como la actual crisis de salud global», dijo Unesco en un presione soltar.
“Se espera que la Recomendación de la Unesco defina valores y principios compartidos e identifique medidas políticas concretas sobre la ética de la IA. Su función será ayudar a los Estados miembros a garantizar que respeten los derechos fundamentales de la Carta de las Naciones Unidas y de la Declaración Universal de Derechos Humanos, y que la investigación, el diseño, el desarrollo y el despliegue de los sistemas de IA tengan en cuenta el bienestar de la humanidad, el medio ambiente y el desarrollo sostenible «.
Según Gemma Galdon Clavell, directora de la consultora de auditoría algorítmica con sede en Barcelona Eticas, «muchos de los primeros usuarios de IA … reconocen los riesgos de los sistemas de IA, desde sesgos no intencionales hasta explicabilidad, y están interesados en adoptar pasos específicos para ayudar a mitigar esos riesgos».
Ella agregó: “Desafortunadamente, incluso los adoptantes más inteligentes no saben cómo. La buena noticia es que a pesar de que el borrador de la Unesco está dirigido principalmente a los responsables de la formulación de políticas, los primeros usuarios de AI encontrarán pasos sensibles que pueden implementar, incluido un amplio despliegue de auditorías algorítmicas. La orientación específica sobre cómo implementar la ética siempre es un paso en la dirección correcta «.
Jeni Tennison, vicepresidenta y asesora principal de estrategia del Open Data Institute, dijo: «Es bueno ver a la Unesco haciendo una amplia consulta sobre algo tan importante a nivel internacional como la ética de la inteligencia artificial».
“Debería haber múltiples voces que expresen inquietudes y discutan el futuro de la IA que queremos ver. Pero hay un largo camino entre esta consulta y la aceptación, adopción y acción sobre las recomendaciones de los Estados miembros de todo el mundo «.
Galdon Clavell le dijo previamente a Computer Weekly que demasiados en el sector tecnológico todavía ven erróneamente la tecnología como neutral social y políticamente, creando problemas importantes en cómo se desarrollan y despliegan los algoritmos, y que la mayoría de las organizaciones que usan algoritmos tienen muy poca conciencia o comprensión de cómo abordar los desafíos del sesgo, incluso si lo reconocen como un problema en primer lugar.
Sin embargo, agregó que las empresas están comenzando a cambiar lentamente sus formas de desarrollar algoritmos con impacto social, y muchos comienzan a ver la confianza del consumidor como una ventaja competitiva.
“Ciertamente descubrí que algunos de los clientes que tenemos son personas que realmente se preocupan por estas cosas, pero otros se preocupan por la confianza de sus clientes y se dan cuenta de que hacer las cosas de manera diferente, hacer las cosas mejor y ser más transparentes también es un manera de que obtengan una ventaja competitiva en el espacio «, dijo.
“También hay un movimiento lento en el mundo corporativo que significa que se dan cuenta de que necesitan dejar de ver a los usuarios como este recurso barato de datos, y los ven como clientes que quieren y merecen respeto, y quieren productos comerciales que no aprovechan sus datos sin su conocimiento o capacidad de consentir «.