La inteligencia artificial se está extendiendo más allá de la industria privada y hacia el sector público, con una ciudad en Ontario que se está haciendo un nombre en su aplicación única de IA: en su lucha contra la falta de vivienda.
Varios expertos dicen que el enfoque de la ciudad de Londres ha sido responsable hasta ahora, pero argumentan que el uso no regulado de la IA en el sector público requiere la necesidad urgente de estándares y barandillas.
“Cualquier uso de la IA que pueda mejorar o hacer más cómoda la vida de las personas vulnerables es excelente”, dijo Marcel O’Gorman, profesor y catedrático de investigación universitaria en la Universidad de Waterloo y director del Critical Media Lab.
“Siempre y cuando se haga de una manera que no los ponga en riesgo actual o futuro, o los exponga a algún tipo de vigilancia policial de mano dura”.
La Oficina del Comisionado de Información y Privacidad de Ontario (IPC) y la Comisión de Derechos Humanos de Ontario (OHRC) dicen que es difícil determinar qué tan extendido está el uso de IA dentro de los municipios, ya que no conocen ningún requisito legal de informes.
“Sin (barandillas apropiadas), las tecnologías de IA corren el riesgo de cruzar los límites más allá de lo que los habitantes de Ontario consideran legal, social y éticamente aceptable”, dijeron los dos organismos en un correo electrónico conjunto a Global News.
Uso de IA para predecir la falta de vivienda crónica
La Inteligencia Artificial para Personas sin Hogar Crónicas de la Ciudad de Londres, o CHAI, está destinada a predecir la probabilidad de que alguien se quede crónicamente sin hogar en los próximos seis meses. A estos efectos, la falta de vivienda crónica se define como pasar 180 días o más al año en un albergue público.
“Por lo que he leído, puede haber algunas iniciativas como esta en los EE. UU., pero no he leído ninguna otra como esta en Canadá con seguridad”, dijo O’Gorman.
Agregó que los municipios que usan IA generalmente lo hacen para rastrear el consumo y la entrega de energía. Otros ejemplos de IA en el sector público incluyen la gestión del tráfico en New Westminster, BC, y para una variedad de propósitos, desde códigos e inspecciones de seguridad de edificios hasta rescate de incendios en Edmonton, Alta., según GovLaunch, que se anuncia a sí mismo como un wiki internacional. para la “innovación del gobierno local”.
Sin embargo, la herramienta CHAI de Londres podría expandirse fácilmente a otros municipios.
“Lo interesante es que los desarrolladores están haciendo de este un sistema de código abierto para que cualquiera pueda usar el mismo sistema. No es propietario. No están tratando de venderlo”.
CHAI se puso en marcha en agosto de 2020 en un momento en que el municipio priorizaba su respuesta al COVID-19. Ha estado funcionando en segundo plano desde entonces, según Kevin Dickens, subdirector municipal de Desarrollo Social y de Salud de la Ciudad de Londres.
“(Desde) agosto de 2020 hasta mayo de 2023, hemos visto duplicarse la cantidad de personas sin hogar en nuestra comunidad, y estamos comenzando a ver una gran población que está sin hogar crónica y sin hogar que simplemente no existía cuando esta herramienta fue concebida.”
Dickens dice que las personas definidas como personas sin hogar crónicas representan alrededor del cuatro por ciento de los usuarios de refugios, pero utilizan aproximadamente una cuarta parte de los recursos del refugio.
Mat Daley, director de Tecnología y Servicios de la Información de la Ciudad de Londres, dijo que CHAI se puede usar para predecir el uso intensivo de refugios, lo que brinda al personal la oportunidad de mejorar la «asignación de recursos y las operaciones».
La ciudad de Londres ha invertido aproximadamente $57,000 en CHAI hasta el momento, con costos mensuales continuos de aproximadamente $1,100, dijo Daley.
La herramienta de inteligencia artificial utiliza datos del Sistema de información de personas y familias sin hogar, un «sistema integral de recopilación de datos y gestión de casos» que es un estándar federal, explicó Daley.
“HIFIS recibiría los datos de las 20 organizaciones de la ciudad de Londres que apoyan a las personas sin hogar”, dijo.
Actualmente, CHAI está utilizando «información anónima de HIFIS y está ejecutando los modelos de aprendizaje automático para proporcionar esa inteligencia a los trabajadores sociales sin hogar», dijo Daley.
O’Gorman ha descrito el desarrollo de CHAI como «respetable» y señaló que los desarrolladores optaron por seguir las pautas del Reglamento General de Protección de Datos (GDPR), establecido por la Unión Europea.
“Las pautas ayudan a garantizar que los datos se usen de manera justa y equitativa, y se basan en un modelo de consentimiento para que una persona tenga que dar su consentimiento para participar en este proyecto. Y pueden irse en cualquier momento”.
O’Gorman dijo que los desarrolladores también siguieron los principios de la «IA explicable», lo que significa que pueden rastrear cómo la IA llegó a sus conclusiones.
“Te dirá algo como: ‘Así es como descubrí por qué esta persona es susceptible a la falta de vivienda crónica’. Y eso es bueno. Quiero decir, te permite mirar esas decisiones y decir: ‘¿Hay algún sesgo aquí? ¿Podemos confiar en esto?’”
Además, CHAI no toma decisiones, proporciona información que los trabajadores sociales (que “tienen una mejor comprensión del contexto humano completo de la falta de vivienda”) pueden usar para tomar decisiones.
Como se mencionó, también está disponible a través de una licencia de código abierto, lo que significa que la ciudad no está tratando de vender la herramienta.
“Cualquiera puede usarlo, construir sobre él y mejorarlo. Este es realmente un tipo de empresa de ‘estamos todos juntos en esto’”, dijo Daley a Global News el 23 de mayo.
“La próxima semana me reuniré con una persona de Londres, Inglaterra, que está interesada en lo que estamos haciendo con el modelo CHAI y el potencial para implementarlo en Inglaterra”.
El proyecto fue dirigido por el sector de personas sin hogar en un comité dirigido por el sector de personas sin hogar, se sometió a controles de privacidad y parcialidad, y todos los resultados fueron revisados por expertos en privacidad en la oficina del secretario de la ciudad, así como por un experto científico de datos externo, agregó Daley. .
“Y como parte de una revisión de un artículo de Reuters, dos expertos en informática no afiliados y un abogado de privacidad descubrieron que ‘el programa parece tomar las medidas necesarias para proteger la información personal de los usuarios’”.
La IA es tan buena como los datos en los que se basa
Sin embargo, aunque varios expertos creen que el enfoque de London para desarrollar CHAI fue responsable, O’Gorman señala que, en última instancia, el modelo sigue siendo de vigilancia.
«No significa necesariamente que todo sea malo o perverso, pero tenemos que llamar las cosas por su nombre».
Agregó que, a menudo, la percepción pública es que las innovaciones tecnológicas afectan primero a las poblaciones privilegiadas, pero las tecnologías asociadas con la vigilancia tienden a afectar a “aquellos que ya se encuentran en situaciones vulnerables y sujetos a control y vigilancia”.
Jacqueline Thompson es directora ejecutiva de Life Spin, una organización benéfica que apoya a familias de bajos ingresos en Londres, y cree que CHAI refleja un sesgo existente en la respuesta a las personas sin hogar en Londres.
“Ese sesgo excluye a nuestra población que envejece. Excluye a las mujeres con hijos. Excluye nuevas familias inmigrantes. Excluye a las familias indígenas que viven fuera de la reserva en la ciudad. También discrimina a las personas que tienen problemas de salud mental”.
Thompson dijo que debido a que los datos de CHAI provienen de HIFIS, no incluyen información de quienes usan el llamado «sistema de refugio privado», por ejemplo, personas que navegan en el sofá o viven con varias familias en una casa pequeña.
“Hay miles olvidados que no usan y no usarán los espacios públicos de acogida ni llevarán a sus hijos a vivir a la calle”, explicó.
“Le pedí a una mujer que me mostrara una foto en su teléfono del espacio donde duermen sus hijos, y era una sala de estar con sacos de dormir en las paredes. Te rompe el corazón. Ella dice: ‘Aquí es donde vivo. Necesito un hogar. Y no cuentan en el sistema de Londres tal como está porque solo obtienen datos de lugares que sirven refugios públicos”.
Una carta de Life Spin recibida por el Comité de Servicios Comunitarios y de Protección en mayo indicó que la organización benéfica ha visto «un marcado aumento en las familias que comparten los alquileres de casas y apartamentos para mantener a sus hijos bajo techo».
“Hemos visto un aumento similar en numerosos miembros de la familia que comparten apartamentos pequeños, como una familia de seis, que vive en un apartamento de una habitación”, dice la carta.
“El hecho de que no estén durmiendo en la puerta de tu lugar de trabajo cuando llegas a trabajar no significa que deban ser discriminados”.
O’Gorman dijo que el sesgo resultante de la falta de datos es un problema conocido de la inteligencia artificial.
“Incluso si observa los informes actuales sobre cuál es el grupo demográfico principal para personas sin hogar, creo que era un hombre blanco, de aproximadamente 52 años, soltero, sin hijos, sin trabajo. Y eso luego se convierte en tu perfil de riesgo”, explicó.
“Tienes que preguntarle a la gente, ¿en qué se basó ese perfil y cuál es la calidad de los datos que se utilizaron para llegar a ese perfil? ¿Quién se está quedando fuera? ¿Quién falta?»
Daley está de acuerdo en que CHAI no incluye a todas las personas sin hogar,…