Los algoritmos de recomendación operados por los gigantes de las redes sociales Tiktok y X han mostrado evidencia de un sesgo político de extrema derecha sustancial en Alemania antes de una elección federal que tiene lugar el domingo, según una nueva investigación realizada por Global Witness.
La organización no gubernamental (ONG) realizó un análisis del contenido de las redes sociales que se muestran a los nuevos usuarios a través de alimentos clasificados algorítmicamente ‘para usted’, encontrando ambas plataformas sesgadas para amplificar el contenido que favorece a la parte de extrema derecha en los alimentos algorítmicamente programados.
Las pruebas de Global Witness identificaron el sesgo más extremo en Tiktok, donde el 78% del contenido político que fue recomendado algorítmicamente a sus cuentas de prueba, y provino de cuentas que los usuarios de la prueba no siguieron, apoyó al partido AFD. (Señala que esta cifra supera con creces el nivel de apoyo que el partido está alcanzando en las encuestas actuales, donde atrae el respaldo de alrededor del 20% de los votantes alemanes).
En X, Global Witness descubrió que el 64% de estos contenidos políticos recomendados apoyaban a la AFD.
Pruebas de sesgo político general de izquierda o derecha en las recomendaciones algorítmicas de las plataformas, sus hallazgos sugieren que los usuarios de las redes sociales no partidistas en Alemania están expuestos al contenido de derecha más del doble que el contenido de la izquierda en el conducir a las elecciones federales del país.
Una vez más, Tiktok mostró el mayor sesgo de derecha, según sus hallazgos, mostrando contenido de la derecha el 74% del tiempo. Aunque, X no estaba muy lejos, con el 72%.
El Instagram de Meta también se probó y se descubrió que se inclinaba justo sobre una serie de tres pruebas que realizaba la ONG. Pero el nivel de sesgo político que mostró en las pruebas fue más bajo, con el 59% de contenido político es de derecha.
Prueba ‘para usted’ para el sesgo político
Para probar si las recomendaciones algorítmicas de las plataformas de redes sociales estaban mostrando sesgo político, los investigadores de las ONG establecieron tres cuentas cada una en Tiktok y X, junto con otros tres en Instagram de propiedad meta. Querían establecer el sabor de las plataformas de contenido promovería a los usuarios que expresaron un interés no partidista en consumir contenido político.
Para presentar como usuarios no partidistas, las cuentas de las pruebas se establecieron para seguir las cuentas de los cuatro partidos políticos más grandes de Alemania (CDU conservador/derecha; SPD central-izquierda; Afd de extrema derecha; greens de izquierda), a lo largo de con las cuentas de sus respectivos líderes (Friedrich Merz, Olaf Scholz, Alice Weidel, Robert Habeck).
Los investigadores que operan las cuentas de prueba también se aseguran de que cada cuenta haga clic en las cinco publicaciones principales de cada cuenta que siguieron, y se comprometieron con el contenido: viendo cualquier videos durante al menos 30 segundos y desplazándose a través de cualquier subproceso, imágenes, etc., según global. Testigo.
Luego recopilaron y analizaron manualmente el contenido que cada plataforma empujó en las cuentas de prueba, descubriendo que había un sesgo sustancial de derecha en lo que estaba siendo empujado algorítmicamente a los usuarios.
«Una de nuestras principales preocupaciones es que realmente no sabemos por qué se nos sugirió el contenido particular que éramos», dijo Ellen Judson, una activista principal que analiza las amenazas digitales para Global Witness, dijo a Tecno en una entrevista. «Encontramos esta evidencia que sugiere un sesgo, pero todavía hay una falta de transparencia de las plataformas sobre cómo funcionan sus sistemas de recomendación».
«Sabemos que usan muchas señales diferentes, pero exactamente cómo se ponderan esas señales, y cómo se evalúan si podrían aumentar ciertos riesgos o aumentar el sesgo, no es muy transparente», agregó Judson.
«Mi mejor inferencia es que este es un tipo de efecto secundario involuntario de los algoritmos que se basan en la participación de la conducción», continuó. «Y que esto es lo que sucede cuando, esencialmente, lo que eran empresas diseñadas para maximizar la participación del usuario en sus plataformas terminan convirtiéndose en estos espacios para las discusiones democráticas: existe un conflicto entre los imperativos comerciales y el interés público y los objetivos democráticos».
Los hallazgos Chime con otro testigo global de investigación en redes sociales se han llevado a cabo en torno a elecciones recientes en los Estados Unidos, Irlanda y Rumania. Y, de hecho, varios otros estudios en los últimos años también han encontrado evidencia de que los algoritmos de las redes sociales se inclinan correctamente, como este proyecto de investigación el año pasado investigando a YouTube.
Incluso en todo el camino en 2021, un estudio interno de Twitter, como solía llamarse X antes de que Elon Musk comprara y renombrara la plataforma, descubrió que sus algoritmos promueven más contenido correcto que la izquierda.
No obstante, las firmas de redes sociales generalmente intentan bailar lejos de las acusaciones de sesgo algorítmico. Y después de que Global Witness compartió sus hallazgos con Tiktok, la plataforma sugirió que la metodología de los investigadores era defectuosa, argumentando que no era posible sacar conclusiones del sesgo algorítmico de un puñado de pruebas. «Dijeron que no era representativo de los usuarios regulares porque eran solo algunas cuentas de prueba», señaló Judson.
X no respondió a los hallazgos de los testigos globales. Pero Musk ha hablado de querer que la plataforma se convierta en un refugio para la libertad de expresión en general. Aunque ese en realidad puede ser su coda para promover una agenda derecha.
Ciertamente es notable que el propietario de X haya utilizado la plataforma para hacer campaña personalmente para el AFD, tuiteando para instar a los alemanes a votar por el partido de extrema derecha en las próximas elecciones y organizar una entrevista transmisión en vivo con Weidel antes de la encuesta, un evento que ha ayudó a elevar el perfil de la fiesta. Musk tiene la cuenta más segura en X.
Hacia la transparencia algorítmica?
«Creo que el punto de transparencia es realmente importante», dice Judson. “Hemos visto a Musk hablar sobre la AFD y obtener mucho compromiso en sus propias publicaciones sobre la AFD y la transmisión en vivo [with Weidel] … [But] No sabemos si en realidad ha habido un cambio algorítmico que refleja eso ”.
«Esperamos que la comisión tome [our results] Como evidencia para investigar si ha ocurrido algo o por qué podría haber este sesgo en curso «, agregó, confirmando que Global Witness ha compartido sus hallazgos con funcionarios de la UE que son responsables de hacer cumplir las reglas de responsabilidad algorithmic del bloque en grandes plataformas.
Estudiar cómo funcionan los algoritmos de organización de contenido propietario es un desafío, ya que las plataformas generalmente mantienen dichos detalles en secreto, reclamando estas recetas de código como secretos comerciales. Es por eso que la Unión Europea promulgó la Ley de Servicios Digitales (DSA) en los últimos años, su libro de reglas de gobernanza en línea insignia, en un intento por mejorar esta situación tomando medidas para capacitar la investigación de interés público sobre los riesgos democráticos y de otro tipo en plataformas importantes, incluida Instagram, incluida , Tiktok y X.
El DSA incluye medidas para impulsar las principales plataformas para que sean más transparentes sobre cómo funcionan sus algoritmos de forma de información y ser proactivos para responder a los riesgos sistémicos que pueden surgir en sus plataformas.
Pero a pesar de que el régimen se inició en los tres gigantes tecnológicos en agosto de 2023, Judson señala que algunos elementos de él aún no se han implementado por completo.
En particular, el artículo 40 del reglamento, que está destinado a permitir que los investigadores examinados obtengan acceso a datos de plataforma no pública para estudiar riesgos sistémicos, aún no ha entrado en vigencia ya que la UE aún no ha aprobado la Ley delegada necesaria para implementar Ese bit de la ley.
El enfoque de la UE con aspectos de la DSA también es uno que se apoya en los riesgos y los ejecutores de autoinforme de las plataformas y luego en recibir y revisar sus informes. Por lo tanto, el primer lote de informes de riesgo de las plataformas puede ser el más débil en términos de revelaciones, sugiere Judson, ya que los ejecutores necesitarán tiempo para analizar las divulgaciones y, si sienten que hay déficit, empuje plataformas para informes más completos.
Por ahora, sin un mejor acceso a los datos de la plataforma, dice que los investigadores de interés público aún no pueden saber con certeza si hay un sesgo en las redes sociales convencionales.
«La sociedad civil está mirando como un halcón para cuando el acceso al investigador examinado está disponible», agrega, diciendo que esperan que esta pieza del rompecabezas de interés público de DSA se coloque en su lugar este trimestre.
La regulación no ha logrado entregar resultados rápidos cuando se trata de preocupaciones asociadas a las redes sociales y los riesgos democráticos. El enfoque de la UE también se puede demostrar que es demasiado cauteloso para mover la aguja tan rápido como debe moverse para mantenerse al día con las amenazas amplificadas algorítmicamente. Pero también está claro que la UE está interesada en evitar cualquier riesgo de ser acusado de engargar la libertad de expresión.
La Comisión tiene investigaciones abiertas sobre las tres firmas de redes sociales que están implicadas por la investigación de testigos globales. Pero hasta ahora no ha habido cumplimiento en este área de integridad electoral. Sin embargo, recientemente intensificó el escrutinio de Tiktok, y abrió un nuevo procedimiento de DSA, luego de que las preocupaciones de que la plataforma fuera un conducto clave para la interferencia electoral rusa en las elecciones presidenciales de Rumania.
«Estamos pidiendo a la comisión que investigue si hay un sesgo político», agrega Judson. «[The platforms] Di que no hay. Encontramos evidencia de que puede haber. Así que esperamos que la comisión use su mayor información.[-gathering] poderes para establecer si ese es el caso y … abordar eso si es así «.
El Reglamento PAN-UE facilita a los ejecutores para imponer sanciones de hasta el 6% de la facturación anual global por infracciones, e incluso bloquea temporalmente el acceso a las plataformas de violación si se niegan a cumplir.







