Facebook se resistió a los cambios destinados a reducir el contenido viral, dice un informe

Facebook está bajo más escrutinio debido a la filtración de investigaciones y documentos internos.

Angela Lang / CNET

Antes de las elecciones presidenciales de los EE. UU. De 2020, los ejecutivos de Facebook se resistieron a los esfuerzos para reducir las funciones que ayudan a amplificar el contenido falso e inflamatorio porque temían que hacerlo podría dañar el uso y el crecimiento de la plataforma.

The Wall Street Journal, citando documentos internos filtrados, dijo que los empleados de Facebook sugirieron cambios que podrían ralentizar la propagación del contenido viral, como eliminar el botón de compartir o detener la promoción de contenido compartido a menos que sea de un amigo del usuario. Un defensor de realizar este tipo de cambios ha sido Kang-Xing Jin, quien dirige las iniciativas de salud de Facebook, según el informe. Pero ejecutivos como John Hegeman, director de anuncios de Facebook, expresaron su preocupación por sofocar el contenido viral.

“Si eliminamos un pequeño porcentaje de las acciones compartidas del inventario de las personas, estas deciden volver menos a Facebook”, escribió Hegeman en comunicaciones internas citadas por el Journal.

Las comunicaciones son las últimas de una serie de documentos internos filtrados que, según el Journal, muestran que Facebook ha puesto sus ganancias por encima de la seguridad de sus usuarios. Frances Haugen, que solía trabajar como gerente de producto de Facebook, se identificó públicamente como la denunciante que reunió los documentos filtrados utilizados por The Journal. Los hallazgos de estos documentos internos han revivido el escrutinio de los legisladores estadounidenses y británicos. Haugen, que ya compareció ante el Congreso, está programado para testificar ante el Parlamento del Reino Unido el lunes.

Facebook ha dicho repetidamente que su investigación interna y su correspondencia están siendo caracterizadas erróneamente. “El contenido provocativo siempre se ha difundido fácilmente entre las personas. Es un problema que trasciende la tecnología, los medios de comunicación, la política y todos los aspectos de la sociedad, y cuando daña a las personas, nos esforzamos por tomar medidas para abordarlo en nuestra plataforma a través de nuestros productos y políticas. “, dijo un portavoz de Facebook en un comunicado.

Sin embargo, la moderación del contenido político ha sido un tema candente para la empresa, ya que intenta equilibrar la seguridad con las preocupaciones sobre obstaculizar la libertad de expresión. Los conservadores también han acusado a Facebook de censurar intencionalmente su contenido, acusaciones que la compañía niega.

El enfoque de Facebook para moderar el contenido de los grupos que considera peligrosos ha sido descrito como un juego de whack-a-mole por el Journal.

El New York Times, también citando documentos internos, informó el viernes que Facebook no abordó la información errónea y el contenido inflamatorio antes y después de las elecciones presidenciales de EE. UU. De 2020, a pesar de que los empleados habían levantado banderas rojas sobre el tema.

Los partidarios de Donald Trump, que perdió la elección ante Joe Biden, publicaron afirmaciones falsas de que la elección había sido robada. Facebook ha suspendido a Trump de su plataforma hasta al menos 2023 debido a las preocupaciones de que sus comentarios podrían incitar a la violencia luego de los mortíferos disturbios en el Capitolio de Estados Unidos en enero.

Un científico de datos de Facebook descubrió que el 10 por ciento de todas las vistas de contenido político en Estados Unidos eran publicaciones que alegaban que la votación fue fraudulenta, según el Times. Los empleados de Facebook también sintieron que la compañía podría haber hecho más para acabar con la desinformación y las teorías de conspiración.

Un portavoz de Facebook dijo que la compañía pasó más de dos años preparándose para las elecciones de 2020 y que más de 40.000 personas ahora trabajan en seguridad. La compañía ajustó algunas de sus medidas antes, durante y después de las elecciones tras recibir más información de las fuerzas del orden. “Es incorrecto afirmar que estos pasos fueron la razón del 6 de enero: las medidas que necesitábamos se mantuvieron en su lugar hasta bien entrado febrero, y algunos, como no recomendar grupos nuevos, cívicos o políticos, permanecen vigentes hasta el día de hoy”, Facebook dijo.

La historia del Times es parte de una serie que se espera de un grupo internacional de organizaciones de noticias que también recibieron documentos de Haugen, según The Information. Se esperan más historias la próxima semana, cuando Facebook informe ganancias y celebre su conferencia Connect sobre realidad virtual y artificial.

Las ultimas noticias de California, editadas por los corresponsales en California. Si quieres sumarte no dudes en contactarnos.

Deberías leer:   Revisión de Halo Infinite: el Halo que vive en tu imaginación