Si bien el grupo de trabajo no ha establecido una cifra exacta sobre cómo se podría compensar a los descendientes de personas esclavizadas por el exceso de vigilancia, el encarcelamiento masivo y la discriminación en la vivienda, los economistas que lo asesoran estiman que las pérdidas sufridas por los residentes negros del estado podrían ascender a cientos de miles de millones. de dólares Aún no se ha determinado si la compensación será realmente aprobada.
La conversación sobre las reparaciones muestra que California tiene una capacidad única para hacer frente a su problemática historia. Pero ese pensamiento no siempre se extiende al futuro. Los sistemas de inteligencia artificial se utilizan para moderar el contenido en las redes sociales, evaluar las solicitudes universitarias, revisar los currículos de empleo, generar fotos y obras de arte falsas, interpretar los datos de movimiento recopilados en la zona fronteriza e identificar sospechosos en investigaciones criminales. Los modelos de lenguaje como ChatGPT, creado por la empresa OpenAI con sede en San Francisco, también han llamado mucho la atención por su potencial para alterar campos como el diseño, el derecho y la educación.
Pero si el éxito de la IA se puede medir en valoraciones de miles de millones de dólares y lucrativas OPI, sus fracasos los carga la gente común. Los sistemas de IA no son neutrales; están capacitados en grandes conjuntos de datos que incluyen, por ejemplo, material de explotación sexual o datos policiales discriminatorios. Como resultado, reproducen y magnifican los peores sesgos de nuestra sociedad. Por ejemplo, el software de reconocimiento racial que se utiliza en las investigaciones policiales suele identificar erróneamente a las personas negras y marrones. Los prestamistas hipotecarios basados en inteligencia artificial tienen más probabilidades de negar préstamos hipotecarios a personas de color, lo que ayuda a perpetuar las desigualdades en la vivienda.
Este parecería ser un momento en el que podemos aplicar el pensamiento histórico a la cuestión de la tecnología, para que podamos evitar que las injusticias que han resultado de los cambios anteriores que alteran el paradigma vuelvan a ocurrir. En abril, dos legisladores presentaron un proyecto de ley en la Asamblea Estatal que intenta prohibir el sesgo algorítmico. El Writers Guild of America, que actualmente está en huelga, ha incluido límites en el uso de IA en sus demandas. La resistencia al exceso también proviene del interior de la industria tecnológica. Hace tres años, Timnit Gebru, jefa del equipo de IA ética de Google, fue despedida después de que hiciera sonar la alarma sobre los peligros de los modelos de lenguaje como GPT-3. Pero ahora incluso los ejecutivos de tecnología se han vuelto cautelosos: en su testimonio ante el Senado, Sam Altman, director ejecutivo de OpenAI, admitió que los sistemas de IA deben ser regulados.
La pregunta a la que nos enfrentamos tanto con las reparaciones como con la IA al final no es tan diferente de la que surgió cuando un fraile franciscano emprendió el Camino Real en 1769. No es tanto «¿Cómo será el futuro?» — aunque esa es una pregunta emocionante — pero “¿Quién tendrá derecho al futuro? ¿A quién podría beneficiar la reparación social o la nueva tecnología, y quién podría resultar perjudicado? La respuesta bien podría decidirse en California.
Laila Lalami es autor de cuatro novelas, entre ellas “Los otros americanos”. Su libro más reciente es una obra de no ficción, «Ciudadanos condicionales». Ella vive en Los Ángeles. benjamin marra es ilustrador, dibujante y director de arte. Sus ilustraciones para «Wayfaring Strangers: Acid Nightmares» de Numero Group fueron nominadas al Grammy.