Uso policial del reconocimiento facial ‘injustificable’, dice el Comité de Justicia de Escocia


No existe una “base justificable” para que Police Scotland invierta y use la tecnología de reconocimiento facial en vivo (LFR), ha dictaminado un comité parlamentario escocés, citando preocupaciones de derechos humanos y protección de datos.

El Subcomité de Justicia del Parlamento del Parlamento de Escocia dijo en un reporte publicó hoy (11 de febrero) que Police Scotland necesitaría demostrar la base legal de su uso de LFR, así como eliminar los prejuicios que discriminan a las minorías étnicas y las mujeres, para que se apruebe el uso de la tecnología.

La tecnología LFR actúa como un punto de control biométrico, permitiendo a la policía identificar a las personas en tiempo real escaneando rostros y comparándolos con un conjunto de imágenes de custodia seleccionadas, conocidas como “listas de vigilancia”.

“El subcomité cree que no habría una base justificable para que Police Scotland invierta en tecnología que se sabe que tiene prejuicios raciales y de género incorporados, y niveles inaceptablemente altos de inexactitud”, dice el informe.

Dijo que el comité no había recibido evidencia suficiente para justificar la introducción de la tecnología LFR, o que incluso es posible utilizar la tecnología de manera “proporcional”.

“Su uso en personas que asisten a actividades legítimas y legales, como protestas pacíficas, conciertos o eventos deportivos, no es necesario ni proporcionado”, dice el informe.

Aunque Police Scotland actualmente no usa LFR, los planes para introducirlo se incluyeron en sus 10 años Estrategia de vigilancia 2026, que el comité dijo que debe revisarse y actualizarse si la policía aún planea implementar la tecnología.

“La Autoridad de Policía de Escocia debe garantizar que se lleven a cabo evaluaciones integrales de los derechos humanos, la igualdad, el impacto en la comunidad, la protección de datos y la seguridad”, dijo, y agregó que todo esto debe hacerse público.

El informe también consideró el uso de reconocimiento facial retrospectivo (RFR) de Police Scotland, mediante el cual la tecnología de reconocimiento facial se utiliza para buscar a través de cámaras de vigilancia grabadas u otras imágenes de video para unir los rostros de las personas con una base de datos de imágenes.

Dijo que las imágenes de custodia, que se utilizan para construir “listas de vigilancia” tanto de LFR como de RFR, a menudo son retenidas indefinidamente por la policía en el Reino Unido debido a la falta de legislación que rija su uso.

En marzo de 2019, el comisionado de biometría del Reino Unido, Paul Wiles, confirmó al Comité de Ciencia y Tecnología del Reino Unido que la Police National Database (PND), que también es utilizada por Police Scotland, actualmente tiene 23 millones de imágenes de custodia, independientemente de si esas personas fueron o no posteriormente convicto.

El informe del subcomité recomienda que la Autoridad de Policía de Escocia revise el uso de RFR, incluido su uso del PND y la base legal para cargar imágenes en él.

“También debe incluir la consideración de las consecuencias de su acceso y uso de cualquier imagen de personas inocentes retenidas ilegalmente en esa base de datos”, dijo el informe.

Consentimiento público para LFR

El comité dijo que Police Scotland también debe demostrar que existe un consentimiento público para el uso de la tecnología, “ya que la falta de consentimiento público corre el riesgo de socavar la legitimidad de la tecnología y, potencialmente, la confianza del público en la vigilancia”.

Añadió: “El uso de la tecnología de reconocimiento facial en vivo sería una desviación radical del principio fundamental de la policía de Escocia por el consentimiento”.

De acuerdo a un estudio nacional Lanzado por el Instituto Ada Lovelace en septiembre de 2019, las personas tienen sentimientos encontrados sobre el uso de LFR.

Casi la mitad (46%) quería la posibilidad de optar por no participar, una cifra que es mayor para las personas de minorías étnicas (56%), mientras que el 55% quería que el gobierno imponga restricciones al uso policial de la tecnología. La gran mayoría de las personas encuestadas (77%) tampoco confiaba en que las empresas privadas usaran la tecnología de manera ética.

El comité también expresó preocupación por el uso de LFR por parte de compañías privadas, citando como ejemplo el intercambio de imágenes de custodia entre el Servicio de Policía Metropolitana, la Policía de Transporte Británica y la Compañía de Desarrollo Cross Estate del Rey.

Sugirió que cualquier nueva legislación desarrollada para regular el uso de la tecnología LFR también debería abarcar a las empresas privadas para mantenerlas en el mismo estándar.

“Ya sea que esta tecnología esté siendo utilizada por compañías privadas, autoridades públicas o la policía, el gobierno escocés debe asegurarse de que haya un marco legal claro para proteger al público y a la policía de operar en un reconocimiento facial Wild West”, dijo el subcomité convocante John Finnie.

“El subcomité se asegura de que Police Scotland no tiene planes de introducir tecnología de reconocimiento facial en vivo en este momento. Está claro que esta tecnología no está en condiciones de ser implementada o de hecho para ayudar a la policía con su trabajo ”.

Falta de marcos legales

En diciembre de 2019, el subcomité de justicia respaldó un proyecto de ley que crearía un comisionado de biometría dedicado para Escocia y establecer un código de práctica legal para el uso de datos biométricos por parte de la policía escocesa.

En noviembre, la Oficina del Comisionado de Información (ICO) también pidió un código de práctica legal para regular cómo la policía del Reino Unido implementa la tecnología de reconocimiento facial, diciendo que la falta de uno contribuye a la práctica inconsistente, aumenta el riesgo de fallas de cumplimiento y daña la confianza pública en La tecnología.

En su informe anual de 2019, Wiles señaló la falta de un marco legislativo y leyes claras que rijan el desarrollo de bases de datos biométricas.

“No hay nada inherentemente malo en alojar una serie de bases de datos en una plataforma de datos común con separación lógica para controlar y auditar el acceso, pero a menos que las reglas de gobierno subyacentes a estas separaciones se desarrollen pronto, entonces existen claros riesgos de abuso”, dijo.

Según el subcomité de justicia escocés, varias personas y organizaciones expresaron la necesidad de una moratoria sobre la tecnología en sus pruebas presentadas.

Un ejemplo es Tatora Mukushi, oficial legal de la Comisión Escocesa de Derechos Humanos, quien dijo que si los derechos humanos y las normas de protección de datos no pueden integrarse en el diseño de la tecnología, entonces no deberían introducirse en absoluto.

En julio de 2019, el Comité de Ciencia y Tecnología del Reino Unido pidió al gobierno que emitir una moratoria sobre el uso de LFR, diciendo: “No deberían llevarse a cabo más ensayos hasta que se haya introducido un marco legislativo y se haya establecido una guía sobre protocolos de ensayos, y un sistema de supervisión y evaluación”.

los La Comisión Europea está considerando prohibir El uso de LFR en espacios públicos durante cinco años debido a problemas de privacidad y datos.

Un informe publicado en febrero de 2020 por el Comité de Normas en la Vida Pública, Inteligencia artificial y estándares públicos., dijo que, en la actualidad, el gobierno y otros organismos del sector público no son lo suficientemente transparentes sobre su uso de la inteligencia artificial (IA).

“Nuestra evidencia sugiere que esta falta de transparencia es particularmente apremiante en la policía y la justicia penal”, dijo. “Esto es particularmente preocupante dado que las tecnologías de vigilancia como el reconocimiento facial automático tienen el potencial de socavar los derechos humanos”.

Agregó que ningún organismo público debería implementar AI “sin comprender el marco legal que rige su uso”.

El informe fue escrito por Jonathan Evans, ex director general del servicio de seguridad del Reino Unido MI5.

Deberías leer:   Solo el 1% de las mujeres que buscan trabajo aspiran a trabajar en startups