Las políticas de desinformación electoral más estrictas de YouTube tuvieron un efecto indirecto en Twitter y Facebook, dicen los investigadores.

Las políticas más estrictas de YouTube contra la desinformación electoral fueron seguidas por fuertes caídas en la prevalencia de videos falsos y engañosos en Facebook y Twitter, según una nueva investigación publicada el jueves, que subraya el poder del servicio de video en las redes sociales.

Los investigadores del Center for Social Media and Politics de la Universidad de Nueva York encontraron un aumento significativo en los videos de YouTube sobre fraude electoral compartidos en Twitter inmediatamente después de las elecciones del 3 de noviembre. En noviembre, esos videos representaron constantemente alrededor de un tercio de todos los videos compartidos relacionados con las elecciones en Twitter. Los principales canales de YouTube sobre fraude electoral que se compartieron en Twitter ese mes provinieron de fuentes que habían promovido la desinformación electoral en el pasado, como Project Veritas, Right Side Broadcasting Network y One America News Network.

Pero la proporción de denuncias de fraude electoral compartidas en Twitter se redujo drásticamente después del 8 de diciembre. Ese fue el día en que YouTube dijo que eliminaría los videos que promovían la teoría infundada de que los errores generalizados y el fraude cambiaron el resultado de las elecciones presidenciales. Para el 21 de diciembre, la proporción de contenido de fraude electoral de YouTube que se compartió en Twitter había caído por debajo del 20 por ciento por primera vez desde las elecciones.

Deberías leer:   Microsoft abandona LinkedIn en China, citando un entorno operativo desafiante

La proporción cayó aún más después del 7 de enero, cuando YouTube anunció que cualquier canal que violara su política de desinformación electoral recibiría una “huelga” y que los canales que recibieran tres advertencias en un período de 90 días serían eliminados permanentemente. Para el día de la inauguración, la proporción rondaba el 5 por ciento.

La tendencia se replicó en Facebook. Un aumento posterior a la elección en el intercambio de videos que contienen teorías de fraude alcanzó su punto máximo en aproximadamente el 18 por ciento de todos los videos en Facebook justo antes del 8 de diciembre. Después de que YouTube introdujo sus políticas más estrictas, la proporción cayó drásticamente durante gran parte del mes, antes de aumentar ligeramente antes del 6 de enero. disturbios en el Capitolio. La proporción volvió a caer, al 4 por ciento para el día de la inauguración, después de que se implementaron las nuevas políticas el 7 de enero.

Deberías leer:   Los pagos sospechosos de ransomware para el primer semestre de 2021 ascienden a 590 millones de dólares

Para llegar a sus hallazgos, los investigadores recolectaron una muestra aleatoria del 10 por ciento de todos los tweets cada día. Luego aislaron tweets que vinculaban a videos de YouTube. Hicieron lo mismo con los enlaces de YouTube en Facebook, utilizando una herramienta de análisis de redes sociales propiedad de Facebook, CrowdTangle.

A partir de este gran conjunto de datos, los investigadores filtraron videos de YouTube sobre las elecciones en general, así como sobre el fraude electoral mediante un conjunto de palabras clave como “Stop the Steal” y “Sharpiegate”. Esto permitió a los investigadores tener una idea del volumen de videos de YouTube sobre el fraude electoral a lo largo del tiempo y cómo ese volumen cambió a fines de 2020 y principios de 2021.

La desinformación en las principales redes sociales ha proliferado en los últimos años. YouTube, en particular, se ha quedado atrás de otras plataformas a la hora de tomar medidas enérgicas contra diferentes tipos de información errónea, a menudo anunciando políticas más estrictas varias semanas o meses después de Facebook y Twitter. Sin embargo, en las últimas semanas YouTube ha endurecido sus políticas, como prohibir toda la información errónea contra las vacunas y suspender las cuentas de destacados activistas antivacunas, incluidos Joseph Mercola y Robert F. Kennedy Jr.

Deberías leer:   Pixel 6 y 6 Pro: Google dice que se toman en serio los teléfonos inteligentes. De verdad esta vez.

Megan Brown, científica investigadora del Centro de Política y Redes Sociales de la Universidad de Nueva York, dijo que era posible que después de que YouTube prohibiera el contenido, la gente ya no pudiera compartir los videos que promovían el fraude electoral. También es posible que el interés en las teorías del fraude electoral se redujo considerablemente después de que los estados certificaran sus resultados electorales.

Pero la conclusión, dijo Brown, es que “sabemos que estas plataformas están profundamente interconectadas”. YouTube, señaló, ha sido identificado como uno de los dominios más compartidos en otras plataformas, incluidos los informes de contenido publicados recientemente por Facebook y la propia investigación de NYU.

“Es una gran parte del ecosistema de información”, dijo la Sra. Brown, “así que cuando la plataforma de YouTube se vuelve más saludable, otras también lo hacen”.