La representante Doris Matsui, demócrata de California, izquierda, y el senador Ed Markey, demócrata de Mass.
Bill Clark | CQ Roll Call | Imágenes falsas; Condesa Jemal | imágenes falsas
Un nuevo proyecto de ley federal busca desmitificar cómo las plataformas de redes sociales determinan qué publicaciones ven los usuarios, sin tocar una ley que se ha convertido en un pararrayos en el Congreso.
La Ley de Transparencia de la Plataforma Online y Justicia Algorítmica de 2021, anunciada el jueves por el senador Ed Markey, demócrata por Massachusetts, y la representante Doris Matsui, demócrata por California. – busca exponer y abordar las injusticias sociales que se ven agravadas por la amplificación algorítmica en línea.
En este uso particular de la palabra, «algoritmos» son partes de programas de software que sitios como Facebook, Twitter y Google usan para determinar qué contenido y anuncios mostrar a los usuarios.
El proyecto de ley prohibiría que las plataformas utilicen algoritmos que discriminen en función de características protegidas como la raza y el género, facultaría a la Comisión Federal de Comercio para revisar los procesos algorítmicos de las plataformas y crearía un nuevo grupo de trabajo interinstitucional para investigar la discriminación en los algoritmos.
Las plataformas también tendrían que explicar a los usuarios cómo usan los algoritmos y qué información usan para ejecutarlos.
«Es hora de abrir el capó de Big Tech, promulgar prohibiciones estrictas sobre algoritmos dañinos y priorizar la justicia para las comunidades que han sido discriminadas durante mucho tiempo mientras trabajamos hacia la responsabilidad de la plataforma», dijo Markey en un comunicado.
Sin embargo, un grupo de la industria respaldado por empresas como Amazon, Facebook, Google y Twitter advirtió que exponer los procesos de las plataformas podría ser riesgoso.
«Nadie quiere que la tecnología exacerbe la desigualdad racial o prive a las personas de oportunidades», dijo el fundador y director ejecutivo de la Cámara de Progreso, Adam Kovacevich, en un comunicado. «Un enfoque sería expandir nuestras leyes existentes de derechos civiles y discriminación en vivienda, empleo y crédito. Existe el peligro de que levantar completamente el capó de los algoritmos tecnológicos pueda proporcionar una hoja de ruta para los piratas informáticos, los trolls rusos y los teóricos de la conspiración».
Investigadores y agencias gubernamentales han acusado a las plataformas de emplear algoritmos discriminatorios en el pasado. Por ejemplo, en 2019, el Departamento de Vivienda y Desarrollo Urbano acusó a Facebook de violar las leyes de discriminación en la vivienda con su publicidad dirigida. Poco después de eso, investigadores de Northeastern University, University of Southern California y el grupo sin fines de lucro Upturn descubrieron que el algoritmo de publicación de anuncios de Facebook podía discriminar en función de la raza y el género, incluso si eso no era lo que pretendían los anunciantes.
Facebook dijo en ese momento que se opone «a la discriminación en cualquier forma» y señaló los cambios que realizó en sus herramientas de orientación de anuncios para abordar algunas de las preocupaciones.
No tocar la Sección 230
El nuevo proyecto de ley es un enfoque notable para la reforma tecnológica en parte debido a lo que no hace: tocar el escudo legal tan debatido que protege a las empresas de la responsabilidad por lo que los usuarios publican en línea.
La sección 230 de la Communications Decency Act es una ley de la década de 1990 que dice que las plataformas en línea no son responsables del discurso de sus usuarios y faculta a las plataformas para moderar sus servicios esencialmente como mejor les parezca. En los últimos años, tanto demócratas como republicanos han criticado el escudo por ser demasiado amplio.
Pero modificar la Sección 230 no es tarea fácil. Demócratas y republicanos no están de acuerdo sobre sus problemas y cómo resolverlos. Los progresistas abogan por eliminar la protección de responsabilidad para las plataformas que no moderan ciertos tipos de contenido, por temor a la proliferación del discurso de odio. Los conservadores dicen que la ley debería limitar qué plataformas pueden moderar, alegando que las plataformas suprimen las publicaciones que expresan puntos de vista conservadores (las empresas lo han negado).
Muchos estudiosos del derecho han advertido sobre los posibles daños no deseados que podrían provenir de la reducción de la Sección 230. Las plataformas podrían en realidad estar incentivadas para limitar el discurso mucho más de lo previsto, por ejemplo.
El grupo progresista de derechos digitales Fight for the Future ve el nuevo proyecto de ley como una forma responsable de abordar el daño de las grandes empresas tecnológicas «sin hacer agujeros en la Sección 230», según un comunicado.
Si bien fue presentado por dos demócratas, el proyecto de ley toca un principio clave presentado por los republicanos a principios de este año sobre cómo buscan manejar la reforma tecnológica. En un memorando de abril, el personal republicano del Comité de Energía y Comercio de la Cámara de Representantes instó a hacer hincapié en la transparencia en las prácticas de moderación de contenido. El proyecto de ley de Markey y Matsui requeriría que las plataformas en línea publiquen informes anuales para el público sobre sus prácticas de moderación de contenido.
MIRAR: El complicado negocio de la moderación de contenido en Facebook, Twitter, YouTube