Comentarios falsos y perspectivas parpadeantes que obstaculizan el progreso del TCO –


Nunca antes una situación había demostrado un consenso tan amplio para tomar medidas adicionales para regular el contenido en línea como lo ha hecho el coronavirus. Al mismo tiempo, los defensores de los derechos digitales y los eurodiputados de apoyo están minimizando el uso de herramientas automatizadas en la lucha contra el contenido terrorista en línea. EDRi (el grupo de defensa de los derechos digitales), con el apoyo del eurodiputado pirata alemán Patrick Breyer, ha ayudado a perpetuar los mitos que rodean las negociaciones sobre la propuesta de eliminar el contenido terrorista en línea (TCO).

Breyer, el ponente alternativo en el archivo del Partido Verde, ha tomado una imagen engañosa del enfoque del Consejo y de la Comisión Europea sobre la moderación del contenido y los términos que se están negociando sobre la propuesta de eliminar el contenido terrorista en línea. Discutir contra el despliegue de herramientas automatizadas para cortar la propagación de contenido dañino en línea en la fuente en la noble búsqueda de «proteger la Internet gratuita» es engañoso. El internet es no gratis. Lo que vemos y lo que influye en nuestra vida cotidiana está controlado en gran medida por algoritmos creados y administrados por plataformas digitales centradas en su propio flujo de ingresos. En CEP, continuamos demostrando la necesidad de herramientas automatizadas con verificación humana para garantizar una Internet segura y protegida. Pero como primer paso, ¿qué tal una discusión honesta y abierta sobre la situación actual y los obstáculos que enfrentamos para luchar por una respuesta en toda la UE?

La propuesta sobre Prevenir la difusión de contenido terrorista en línea está estancado alrededor de dos puntos clave: el uso de herramientas automatizadas y las órdenes de eliminación transfronterizas.

A pesar de que el Consejo acordó que todas las herramientas implementadas deben ser proporcionales al problema, el tamaño y la capacidad de la plataforma y estar sujetas a revisión humana, así como un Voxpol financiado por la Comisión[1] En el estudio que demostró el éxito de tales herramientas, el Parlamento Europeo continúa insistiendo, sin proponer ninguna solución alternativa, que no debería haber obligación de utilizar herramientas automatizadas.

El segundo problema que causa demoras indebidas es que el Parlamento Europeo no puede aceptar las órdenes de expulsión transfronterizas, exigiendo que el Estado miembro de acogida sea el único que puede emitir órdenes contra empresas en su territorio. De hecho, el Parlamento Europeo parece ser de la opinión de que Irlanda debería convertirse en la policía de contenido terrorista de la Unión Europea. Curiosamente, los propios Estados miembros acordaron las órdenes de expulsión transfronterizas, asegurando así que el contenido terrorista sea realmente abordado por una solución europea eficiente basada en la confianza mutua. Entonces, ¿qué derechos protege el Parlamento Europeo si incluso los propios Estados miembros están de acuerdo? Ciertamente, los ciudadanos no están mejor protegidos si tienen que defender exclusivamente sus derechos en Irlanda.

Lamentablemente, las negociaciones sobre estos aspectos del expediente no han sido compatibles con la realidad de COVID-19. Parece que ciertos eurodiputados desean desacelerar las discusiones al negarse a interactuar virtualmente con sus pares y, en cambio, centrarse en vender narrativas falsas de sus blogs. Las afirmaciones de que estos problemas se abordarán de manera más efectiva en virtud de la nueva Ley de Servicios Digitales son solo tácticas de demora. Continuar empujando esta propuesta hacia abajo en la lista de prioridades es un insulto para las víctimas del terrorismo y sus familias en toda Europa.

En Alemania, una investigación reciente del CEP sobre los procedimientos de «aviso y eliminación» bajo el NetzDG encontró que los sistemas de señalización desplegados por plataformas como Facebook e Instagram, para identificar y eliminar contenido terrorista en línea eran ineficaces. El análisis de instantáneas de CEP, que se realizó durante una quincena, mostró que solo el 43% del contenido marcado fue bloqueado o eliminado. De los 93 elementos de contenido «evidentemente ilegales» que se informaron, 24 fueron bloqueados bajo el proceso de NetzDG y 16 fueron eliminados según las pautas comunitarias de la plataforma.

Los sistemas de marcado no son, por lo tanto, la solución más efectiva. Necesitamos órdenes de eliminación en toda la UE para garantizar que las empresas estén obligadas a eliminar contenido ilegal. Además de esto, las empresas deben implementar todas las medidas en su caja de herramientas, incluidas las herramientas automatizadas con verificación humana, para mantener a los usuarios seguros.

Ahora no es el momento de retrasar y, por lo tanto, instamos a los eurodiputados a aprovechar la oportunidad de informar el debate sobre la responsabilidad de la plataforma. El CEP ha extendido una invitación a todos los eurodiputados que trabajan en el TCO y DSA para discutir las lecciones que se pueden aprender de NetzDG y más allá. Ahora es el momento de permanecer unificado para mostrar la misma transparencia, supervisión y responsabilidad que tanto el CEP como los eurodiputados desearían de las plataformas.


[1] Vox-pol ha estudiado las diversas herramientas utilizadas para la moderación de contenido, incluida la revisión humana y el uso de herramientas automatizadas, y considera que, a pesar de algunos desafíos, las herramientas automáticas de detección de contenido permiten eliminar más contenido, más rápidamente y con mayor cobertura. Como resultado, las plataformas que usan tales herramientas se han convertido en un lugar mucho más difícil para que operen las organizaciones terroristas.https://www.voxpol.eu/download/vox-pol_publication/DCUJ770-VOX-Extreme-Digital-Speech.pdf