Los legisladores han pasado años investigando cómo el discurso de odio, la desinformación y el acoso en los sitios de redes sociales pueden provocar daños en el mundo real. Cada vez más, han señalado con el dedo los algoritmos que impulsan sitios como Facebook y Twitter, el software que decide qué contenido verán los usuarios y cuándo lo verán.
Algunos legisladores de ambos partidos argumentan que cuando los sitios de redes sociales aumentan el desempeño de publicaciones violentas o de odio, los sitios se vuelven cómplices. Y han propuesto proyectos de ley para despojar a las empresas de un escudo legal que les permita defenderse de las demandas sobre la mayoría del contenido publicado por sus usuarios, en los casos en que la plataforma amplificó el alcance de una publicación dañina.
El Comité de Energía y Comercio de la Cámara de Representantes celebrará una audiencia el miércoles para discutir varias de las propuestas. La audiencia también incluirá el testimonio de Frances Haugen, la ex empleada de Facebook que recientemente filtró un tesoro de reveladores documentos internos de la compañía.
Eliminar el escudo legal, conocido como Sección 230, significaría un cambio radical para Internet, porque durante mucho tiempo ha permitido la gran escala de sitios web de redes sociales. La Sra. Haugen ha dicho que apoya cambiar la Sección 230, que es parte de la Ley de Decencia en las Comunicaciones, para que ya no cubra ciertas decisiones tomadas por algoritmos en plataformas tecnológicas.
Pero, ¿qué cuenta exactamente como amplificación algorítmica? ¿Y cuál es exactamente la definición de dañino? Las propuestas ofrecen respuestas muy diferentes a estas preguntas cruciales. Y la forma en que las respondan puede determinar si los tribunales encuentran constitucionales los proyectos de ley.
Así es como los proyectos de ley abordan estos temas espinosos:
¿Qué es la amplificación algorítmica?
Los algoritmos son En todas partes. En su forma más básica, un algoritmo es un conjunto de instrucciones que le dicen a una computadora cómo hacer algo. Si se pudiera demandar a una plataforma cada vez que un algoritmo le hiciera algo a una publicación, los productos que los legisladores no están tratando de regular podrían quedar atrapados.
Algunas de las leyes propuestas definen el comportamiento que quieren regular en términos generales. Un proyecto de ley patrocinado por la senadora Amy Klobuchar, demócrata de Minnesota, expondría una plataforma a demandas si «promueve» el alcance de la desinformación de salud pública.
El proyecto de ley de la Sra. Klobuchar sobre desinformación de la salud le daría un pase a las plataformas si su algoritmo promocionara el contenido de una manera «neutral». Eso podría significar, por ejemplo, que una plataforma que clasifica las publicaciones en orden cronológico no tendría que preocuparse por la ley.
Otra legislación es más específica. Un proyecto de ley de los representantes Anna G. Eshoo de California y Tom Malinowski de Nueva Jersey, ambos demócratas, define la amplificación peligrosa como hacer cualquier cosa para «clasificar, ordenar, promover, recomendar, ampliar o alterar de manera similar la entrega o exhibición de información».
Otro proyecto de ley escrito por los demócratas de la Cámara especifica que las plataformas solo pueden ser demandadas cuando la amplificación en cuestión fue impulsada por los datos personales de un usuario.
“Estas plataformas no son espectadores pasivos, están eligiendo a sabiendas las ganancias sobre las personas, y nuestro país está pagando el precio”, dijo el representante Frank Pallone Jr., presidente del Comité de Energía y Comercio, en un comunicado cuando anunció la legislación.
La nueva factura del Sr. Pallone incluye una exención para cualquier negocio con cinco millones o menos de usuarios mensuales. También excluye las publicaciones que aparecen cuando un usuario busca algo, incluso si un algoritmo lo clasifica, y el alojamiento web y otras empresas que forman la columna vertebral de Internet.
¿Qué contenido es dañino?
Los legisladores y otros han señalado una amplia gama de contenido que consideran relacionado con daños en el mundo real. Existen teorías de la conspiración, que podrían llevar a algunos seguidores a volverse violentos. Las publicaciones de grupos terroristas podrían empujar a alguien a cometer un ataque, como argumentaron los familiares de un hombre cuando demandaron a Facebook después de que un miembro de Hamas lo apuñalara fatalmente. Otros legisladores han expresado su preocupación por los anuncios dirigidos que conducen a la discriminación en la vivienda.
La mayoría de los proyectos de ley que se encuentran actualmente en el Congreso abordan tipos específicos de contenido. El proyecto de ley de la Sra. Klobuchar cubre la «información errónea sobre la salud». Pero la propuesta deja en manos del Departamento de Salud y Servicios Humanos determinar qué significa eso exactamente.
«La pandemia de coronavirus nos ha demostrado lo letal que puede ser la desinformación y es nuestra responsabilidad tomar medidas», dijo Klobuchar cuando anunció la propuesta, que fue coescrita por el senador Ben Ray Luján, un demócrata de Nuevo México.
La legislación propuesta por la Sra. Eshoo y el Sr. Malinowski adopta un enfoque diferente. Se aplica solo a la ampliación de puestos que violan tres leyes: dos que prohíben las violaciones de los derechos civiles y una tercera que procesa el terrorismo internacional.
El proyecto de ley del Sr. Pallone es el más nuevo del grupo y se aplica a cualquier publicación que «contribuyó materialmente a una lesión física o emocional grave a cualquier persona». Este es un estándar legal alto: la angustia emocional debería ir acompañada de síntomas físicos. Pero podría cubrir, por ejemplo, a una adolescente que ve publicaciones en Instagram que disminuyen tanto su autoestima que intenta lastimarse.
¿Qué opinan los tribunales?
Los jueces se han mostrado escépticos ante la idea de que las plataformas deban perder su inmunidad legal cuando amplifican el alcance del contenido.
En el caso de un ataque del que Hamas se atribuyó la responsabilidad, la mayoría de los jueces que escucharon el caso estuvieron de acuerdo con Facebook en que sus algoritmos no le costaron la protección del escudo legal para el contenido generado por los usuarios.
Si el Congreso crea una exención al escudo legal, y resiste el escrutinio legal, los tribunales pueden tener que seguir su ejemplo.
Pero si los proyectos de ley se convierten en ley, es probable que generen preguntas importantes sobre si violan las protecciones de la libertad de expresión de la Primera Enmienda.
Los tribunales han dictaminado que el gobierno no puede hacer que los beneficios para un individuo o una empresa dependan de la restricción de expresión que de otro modo protegería la Constitución. Entonces, la industria tecnológica o sus aliados podrían desafiar la ley con el argumento de que el Congreso estaba encontrando un método de puerta trasera para limitar la libertad de expresión.
«El problema es: ¿Puede el gobierno prohibir directamente la amplificación algorítmica?» dijo Jeff Kosseff, profesor asociado de derecho de ciberseguridad en la Academia Naval de Estados Unidos. «Va a ser difícil, especialmente si estás tratando de decir que no puedes amplificar ciertos tipos de habla».