Publicados documentos de denuncia de irregularidades en Facebook, acciones bajo presión

Mark Zuckerberg, director ejecutivo y fundador de Facebook Inc., llega a una audiencia del Comité de Servicios Financieros de la Cámara de Representantes en Washington, DC, el 23 de octubre de 2019.

Andrew Harrer | Bloomberg | imágenes falsas

Los Facebook Papers, una serie de artículos publicados por un consorcio de 17 medios de comunicación estadounidenses a partir del viernes, arrojan nueva luz sobre el pensamiento de la compañía detrás de sus acciones previas a la insurrección del Capitolio el 6 de enero y su capacidad para defenderse del discurso de odio en idiomas fuera del inglés.

Las acciones de Facebook fueron ligeramente negativas en las operaciones previas a la comercialización el lunes por la mañana después de que los medios de comunicación publicaran sus historias basadas en los documentos filtrados. La compañía también está programada para informar ganancias trimestrales después del cierre de los mercados el lunes.

Los documentos fueron proporcionados a los medios de comunicación por Frances Haugen, una ex empleada de Facebook que se llevó consigo decenas de miles de páginas de investigación interna antes de irse. Desde entonces, ha proporcionado esos documentos al Congreso y a la Comisión de Bolsa y Valores, en busca de la condición de denunciante.

«En el corazón de estas historias hay una premisa que es falsa», dijo un portavoz de Facebook en un comunicado en respuesta a la avalancha de informes. «Sí, somos un negocio y obtenemos ganancias, pero la idea de que lo hacemos a expensas de la seguridad o el bienestar de las personas malinterpreta dónde se encuentran nuestros propios intereses comerciales. La verdad es que hemos invertido $ 13 mil millones y tenemos más de 40,000 personas hacer un trabajo: mantener a la gente segura en Facebook «.

Estos son algunos de los temas principales que los artículos de Facebook han explorado hasta ahora:

Enero 6

Los documentos revelaron frustración entre las filas de Facebook sobre la capacidad de la compañía para controlar la propagación de contenido incitador potencial.

«¿No hemos tenido tiempo suficiente para descubrir cómo manejar el discurso sin permitir la violencia?» un empleado escribió en un tablero de mensajes interno durante el motín frente al Capitolio de los Estados Unidos el 6 de enero, según AP. «Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control».

Facebook había implementado medidas de emergencia adicionales antes de las elecciones de 2020 para detener la propagación de contenido violento o peligroso si fuera necesario. Pero hasta 22 de esas medidas fueron anuladas después de las elecciones y antes del 6 de enero, mostraron documentos internos revisados ​​por AP.

Un portavoz de Facebook le dijo al medio que el uso de esas medidas siguió las señales de su propia plataforma y la aplicación de la ley.

Las barreras del idioma

Algunos de los informes mostraron cómo los sistemas de moderación de contenido de Facebook pueden fracasar cuando se enfrentan a otros idiomas además del inglés.

The Associated Press informó que el árabe representa un desafío particularmente difícil para los moderadores de contenido. Los usuarios de habla árabe han aprendido a usar símbolos o espacios adicionales en palabras que se cree que activan banderas en los sistemas de Facebook, como los nombres de grupos militantes.

Si bien algunos tienen la intención de evitar un sistema de moderación de contenido excesivamente entusiasta, la AP informó que ciertas medidas han logrado evitar los censores de discurso de odio de Facebook.

«Estábamos aplicando incorrectamente contenido antiterrorista en árabe», dijo un documento interno de Facebook, según AP. Mientras tanto, dijo, el sistema «limita la participación de los usuarios en el discurso político, impidiendo su derecho a la libertad de expresión».

Facebook le dijo a AP que ha invertido más recursos en la contratación de expertos locales en dialectos y temas y ha investigado formas de mejorar sus sistemas.

India

Otros informes muestran que algunos empleados de Facebook estaban consternados por el manejo de la información errónea por parte de la compañía en India, creyendo que el liderazgo tomó decisiones para evitar enojar al gobierno indio.

Las preocupaciones sobre el discurso de odio en la región se vieron amplificadas por problemas similares a la barrera del idioma como en el Medio Oriente. Según la AP, Facebook agregó clasificadores de incitación al odio en hindi y bengalí en 2018 y 2020, respectivamente.

Un investigador que creó una cuenta como usuario en India en 2019 descubrió que al seguir las recomendaciones del algoritmo de Facebook, vieron «más imágenes de personas muertas en las últimas tres semanas de las que he visto en toda mi vida», en las noticias. Feed, según The New York Times.

Un portavoz de Facebook le dijo al Times que el discurso de odio contra los grupos marginados en la India y en otros lugares ha ido en aumento, y está «comprometido a actualizar nuestras políticas a medida que el discurso de odio evoluciona en línea».

Esta historia se está desarrollando. Vuelve a consultar las actualizaciones.

Suscríbase a CNBC en YouTube.

MIRAR: El complicado negocio de la moderación de contenido en Facebook, Twitter, YouTube

Salir de la versión móvil