Facebook titubeó al frenar el contenido divisivo de los usuarios en India

NUEVA DELHI, India (AP) – Facebook en India ha sido selectivo para frenar el discurso de odio, la desinformación y las publicaciones incendiarias, particularmente el contenido antimusulmán, según documentos filtrados obtenidos por The Associated Press, incluso cuando sus propios empleados arrojan dudas sobre la empresa. motivaciones e intereses.

Desde investigaciones tan recientes como marzo de este año hasta memorandos de la compañía que se remontan a 2019, los documentos internos de la compañía en India destacan las luchas constantes de Facebook para sofocar el contenido abusivo en sus plataformas en la democracia más grande del mundo y el mercado de mayor crecimiento de la compañía. Las tensiones comunitarias y religiosas en India tienen un historial de hervir en las redes sociales y avivar la violencia.

Los archivos muestran que Facebook ha sido consciente de los problemas durante años, lo que plantea dudas sobre si ha hecho lo suficiente para abordar estos problemas. Muchos críticos y expertos digitales dicen que no lo ha hecho, especialmente en los casos en los que están involucrados miembros del gobernante Partido Bharatiya Janata del primer ministro Narendra Modi, o el BJP.

En todo el mundo, Facebook se ha vuelto cada vez más importante en política, e India no es diferente.

A Modi se le ha atribuido el mérito de aprovechar la plataforma en beneficio de su partido durante las elecciones, y los informes de The Wall Street Journal el año pasado arrojan dudas sobre si Facebook estaba aplicando selectivamente sus políticas sobre el discurso de odio para evitar el retroceso del BJP. Tanto Modi como el presidente y director ejecutivo de Facebook, Mark Zuckerberg, han exudado bonhomia, conmemorado por una imagen de 2015 de los dos abrazándose en la sede de Facebook.

Deberías leer:   Crean un teléfono para perros, DogPhone: para qué sirve

Los documentos filtrados incluyen un tesoro de informes internos de la empresa sobre discursos de odio e información errónea en India. En algunos casos, gran parte de esto se intensificó mediante sus propios algoritmos y funciones “recomendadas”. Pero también incluyen las preocupaciones del personal de la empresa por el mal manejo de estos temas y su descontento expresado por el “descontento” viral en la plataforma.

Según los documentos, Facebook consideró a la India como uno de los países más “en riesgo” del mundo e identificó los idiomas hindi y bengalí como prioridades para la “automatización de la violación del discurso hostil”. Sin embargo, Facebook no tenía suficientes moderadores en el idioma local o marcas de contenido para detener la información errónea que a veces conducía a la violencia en el mundo real.

En un comunicado a la AP, Facebook dijo que ha “invertido significativamente en tecnología para encontrar discursos de odio en varios idiomas, incluidos hindi y bengalí”, lo que ha dado como resultado “una reducción de la cantidad de discursos de odio que la gente ve a la mitad” en 2021.

“El discurso de odio contra los grupos marginados, incluidos los musulmanes, está aumentando a nivel mundial. Por lo tanto, estamos mejorando la aplicación y estamos comprometidos a actualizar nuestras políticas a medida que el discurso de odio evoluciona en línea ”, dijo un portavoz de la compañía.

Esta historia de AP, junto con otras que se están publicando, se basa en divulgaciones realizadas a la Comisión de Bolsa y Valores y proporcionadas al Congreso en forma redactada por el asesor legal de Frances Haugen, ex empleada de Facebook convertida en denunciante. Las versiones redactadas fueron obtenidas por un consorcio de organizaciones de noticias, incluida la AP.

En febrero de 2019 y antes de las elecciones generales en las que aumentaba la preocupación por la desinformación, un empleado de Facebook quería entender qué veía un nuevo usuario en el país en su servicio de noticias si todo lo que hacía era seguir páginas y grupos recomendados únicamente por la plataforma. sí mismo.

Deberías leer:   Paganos espaciales y brujas de teléfonos inteligentes: donde la tecnología se encuentra con el misticismo

El empleado creó una cuenta de usuario de prueba y la mantuvo activa durante tres semanas, un período durante el cual un evento extraordinario sacudió a la India: un ataque militante en la disputada Cachemira mató a más de 40 soldados indios, lo que llevó al país a una guerra cercana con su rival Pakistán.

En la nota, titulada “El descenso de un usuario de prueba indio a un mar de mensajes nacionalistas y polarizantes”, el empleado cuyo nombre está redactado dijo que estaba “conmocionado” por el contenido que inundaba las noticias, que “se ha convertido en un aluvión casi constante de polarización contenido nacionalista, desinformación y violencia y sangre “.

Los grupos aparentemente benignos e inocuos recomendados por Facebook se transformaron rápidamente en algo completamente diferente, donde el discurso de odio, los rumores no verificados y el contenido viral corrieron desenfrenadamente.

Los grupos recomendados fueron inundados con noticias falsas, retórica anti-Pakistán y contenido islamofóbico. Gran parte del contenido era extremadamente gráfico.

Uno incluía a un hombre que sostenía la cabeza ensangrentada de otro hombre cubierto con una bandera paquistaní, con una bandera india en el lugar de su cabeza. Su función “Popular Across Facebook” mostró una gran cantidad de contenido no verificado relacionado con los ataques indios en represalia contra Pakistán después de los atentados, incluida una imagen de una bomba de napalm de un clip de videojuego desacreditado por uno de los socios de verificación de hechos de Facebook.

Deberías leer:   Las ventas de chips de minería criptográfica de Nvidia cayeron un 60% secuencialmente en el tercer trimestre

“Después de la sección de noticias de este usuario de prueba, he visto más imágenes de personas muertas en las últimas tres semanas de las que he visto en toda mi vida”, escribió el investigador.

Desató una profunda preocupación sobre a qué podría conducir ese contenido divisivo en el mundo real, donde los medios de comunicación locales en ese momento informaban sobre los ataques de los habitantes de Cachemira en las consecuencias.

“¿Deberíamos, como empresa, tener una responsabilidad adicional de prevenir daños a la integridad que resulten del contenido recomendado?” preguntó el investigador en su conclusión.

El memorando, que circuló con otros empleados, no respondió a esa pregunta. Pero sí expuso cómo los propios algoritmos de la plataforma o la configuración predeterminada jugaron un papel en estimular tal descontento. El empleado notó que había claros “puntos ciegos”, particularmente en el “contenido en el idioma local”. Dijeron que esperaban que estos hallazgos iniciaran conversaciones sobre cómo evitar tales “daños a la integridad”, especialmente para aquellos que “difieren significativamente” del usuario estadounidense típico.

A pesar de que la investigación se llevó a cabo durante tres semanas que no fueron una representación promedio, reconocieron que sí mostraba cómo un contenido tan “no moderado” y problemático “podría dominar totalmente” durante “un evento de crisis importante”.

El portavoz de Facebook dijo que el estudio de prueba “inspiró un análisis más profundo y riguroso” de sus sistemas de recomendación y “contribuyó a cambios en los productos para mejorarlos”.

“Por separado, nuestro trabajo para frenar el discurso del odio continúa y hemos fortalecido aún más nuestros clasificadores de odio, para incluir cuatro idiomas indios”, dijo el portavoz.

Regístrese para recibir boletines informativos diarios

Copyright © 2021 The Washington Times, LLC.