La IA en el servicio público debe ser responsable


Un nuevo informe del Comité de Normas en la vida pública que analiza los riesgos de la inteligencia artificial (IA) ha recomendado que la ética esté integrada en los marcos de gobernanza de la IA.

De acuerdo con la Inteligencia artificial y estándares públicos. informe, la toma de decisiones automatizada revolucionará muchas tareas administrativas centradas en el ser humano en el sector público. El informe señala que el uso de IA está sujeto a las disposiciones del Reglamento General de Protección de Datos (RGPD), la Ley de Igualdad y secciones del derecho administrativo.

El informe recomienda que el gobierno y los reguladores establezcan un marco regulatorio coherente que establezca límites legales claros sobre cómo se debe usar la IA en el sector público. “Los reguladores también deben prepararse para los cambios que AI traerá a la práctica del sector público”, dice. “Concluimos que el Reino Unido no necesita un regulador de IA específico, pero todos los reguladores deben adaptarse a los desafíos que la IA plantea a sus sectores específicos”.

Una encuesta de DeltaPoll, publicada en el informe, descubrieron que el 69% de los adultos encuestados en 2016 se sentían cómodos con la toma de decisiones de IA si un humano tomaba la decisión final. Citando el Marco de auditoría de AI de la Oficina del Comisionado de Información, el AI y estándares públicos el informe declaró: “Los revisores deben” sopesar “e” interpretar “la recomendación, considerar todos los datos de entrada disponibles y también tener en cuenta otros factores adicionales”.

El autor del informe recomendó que el gobierno establezca un Centro de Ética de Datos (CDEI) como un centro de aseguramiento regulatorio para ayudar a los reguladores en el área de IA.

Hablando con la BBC Hoy programaJonathan Evans, presidente del Comité de Estándares en la Vida Pública, dijo: “Creemos que la IA se utilizará en todo el sector público. Tenemos que pensar seriamente en cómo la IA se enfrenta a las pruebas establecidas en los siete principios de la vida pública, como la transparencia, la objetividad y la responsabilidad “.

Evans sugirió que el público tendría derecho a preguntar cómo se usa la IA dentro de un servicio público. “Si, como miembro del público, le preocupa que su información se esté utilizando o que sus servicios se brinden mediante el uso de inteligencia artificial, entonces corresponde al gobierno y al servicio público informarle”, dijo.

Evans reconoció que tales solicitudes pueden estar incluidas en el marco existente de Libertad de Información, pero sugirió que el gobierno también debería ser más proactivo. “Es muy difícil descubrir qué algoritmos se están utilizando y dónde, y eso es una falla importante”, dijo. “Creemos que debería haber una declaración proactiva por parte de cualquier agencia que use IA para que las personas puedan averiguar [this information] rápida y fácilmente “.

Deberías leer:   Facebook quería comprar el 10% de Reliance Jio: informe

Respondiendo al informe, el ministro digital en la sombra, Chi Onwurah, dijo: “El gobierno conservador está fallando en la apertura y la transparencia cuando se trata del uso de IA en el sector público. El año pasado, sostuve en el Parlamento que el gobierno no debería aceptar más algoritmos de IA en los procesos de toma de decisiones sin introducir una mayor regulación.

“Continuaré presionando al gobierno para que vaya más lejos al compartir información sobre cómo la IA se está utilizando actualmente en todos los niveles del gobierno. Como lo muestra este informe, existe una necesidad urgente de orientación práctica y regulación aplicable que funcione. Es hora de actuar “.

La efectividad de un sistema de IA para tomar decisiones depende completamente del conjunto de datos de entrenamiento utilizado, dice el informe. “Incluso cuando la IA se introduce con buenas intenciones, los datos de baja calidad o la falta de conocimiento sobre cómo funciona un sistema de IA conducirán a resultados no deseados”, dijo. “Los organismos públicos deben volver a probar y validar periódicamente sus modelos en diferentes grupos demográficos para observar si algún grupo está siendo sistemáticamente favorecido o desfavorecido, para que puedan actualizar sus sistemas de IA cuando sea necesario”.

Bill Mitchell, director de políticas de BCS, Chartered Institute for IT, agregó: “Hay un viejo adagio en ciencias de la computación que resume muchas de las preocupaciones en torno a los servicios públicos habilitados para IA: ‘Basura adentro, basura afuera’. En otras palabras, si coloca datos pobres, parciales y defectuosos en una computadora, seguirá sin pensar su programación y generará cálculos pobres, parciales y defectuosos.

“La IA es una tecnología de inferencia estadística que aprende con el ejemplo. Esto significa que si permitimos que los sistemas de IA aprendan de ejemplos de “basura”, terminaremos con un modelo de inferencia estadística que es realmente bueno para producir inferencias de “basura”.

Mitchell dijo que el informe destacó la importancia de contar con equipos diversos que ayudarían a que las autoridades públicas sean más propensas a identificar cualquier posible trampa ética de un proyecto de IA. “Muchos contribuyentes enfatizaron la importancia de la diversidad y le dijeron al comité que diversos equipos conducirían a un pensamiento más diverso y que, a su vez, esto ayudaría a las autoridades públicas a identificar cualquier posible impacto adverso de un sistema de IA”, dijo.

El informe instó al gobierno a utilizar su poder adquisitivo en el mercado para establecer los requisitos de adquisición para garantizar que las empresas privadas que desarrollan sistemas de IA para el sector público aborden las normas públicas de manera adecuada. El informe sugirió que esto debería lograrse asegurando que las disposiciones para las normas éticas se consideren temprano en el proceso de adquisición y se escriban explícitamente en las licitaciones y acuerdos contractuales.