El CEO y cofundador de Facebook, Mark Zuckerberg, posa junto al jefe de comunicaciones de política global de Facebook y el ex viceprimer ministro del Reino Unido, Nick Clegg (izq.) Antes de una reunión con el presidente francés en el Palacio del Elíseo en París, el 10 de mayo de 2019.
Yoah Valat | AFP | imágenes falsas
Facebook implementará nuevas herramientas para desviar a los usuarios del contenido dañino, limitar el contenido político y dar a los padres más control sobre las cuentas de Instagram de los adolescentes, dijo el vicepresidente de asuntos globales de la compañía, Nick Clegg, a varios programas de noticias matutinos el domingo.
Aunque Clegg no dio más detalles sobre los detalles de las herramientas, le dijo a ABC «This Week» que una medida instaría a los usuarios que están en la plataforma de Facebook, Instagram durante largos períodos de tiempo, a «tomar un descanso». Otra característica empujará a los adolescentes que miran contenido perjudicial para su bienestar a mirar otra cosa, dijo.
Clegg también dijo que el planificado Instagram Kids de la compañía, un servicio para niños menores de 13 años que la compañía pausó recientemente, es parte de la solución.
«No tenemos ningún incentivo comercial para hacer otra cosa que tratar de asegurarnos de que la experiencia sea positiva», dijo Clegg. «No podemos cambiar la naturaleza humana. Siempre vemos cosas malas en línea. Podemos hacer todo lo posible para tratar de reducirlas y mitigarlas».
Las apariciones de Clegg en los medios se producen en respuesta al testimonio en el Senado de la denunciante Frances Haugen el martes. Haugen, que filtró documentos internos de Facebook a The Wall Street Journal y al Congreso, dijo a un panel del Senado que la empresa siempre pone sus propias ganancias por encima de la salud y la seguridad de los usuarios.
Los documentos filtrados provocaron una serie de historias del Journal que revelaron que la compañía está al tanto de varios problemas, incluido que sabe que Instagram es perjudicial para la salud mental de los adolescentes, pero los ignora o no los resuelve.
La empresa comenzará a enviar datos sobre el contenido que publica cada 12 semanas a una auditoría independiente, dijo Clegg a ABC, porque «tenemos que rendir cuentas».
Mientras los líderes del Congreso piden más transparencia por parte del gigante tecnológico sobre la privacidad del usuario, Clegg instó a los legisladores a intervenir.
«No estamos diciendo que esto sea de alguna manera una sustitución de nuestras propias responsabilidades, pero hay un montón de cosas que solo los reguladores y legisladores pueden hacer», dijo a «Meet the Press» de NBC. «Y al final del día, no creo que nadie quiera que una empresa privada se pronuncie sobre estos compromisos realmente difíciles entre la libertad de expresión por un lado y la moderación o eliminación de contenido por el otro».
Haugen está programado para hablar con la Junta de Supervisión de Facebook en las próximas semanas, anunció la junta el lunes. La junta se creó en 2018 para revisar el contenido después de que la compañía enfrentara una serie de escándalos en torno a su manejo de la supuesta interferencia rusa y otros usos indebidos de la plataforma.
La junta dijo en su sitio web que actualmente está revisando si Facebook ha sido «completamente comunicativo» sobre las respuestas a su sistema de verificación cruzada, que el Journal reveló que permite a celebridades, políticos y otras personas con muchos seguidores eludir algunas de las reglas de Facebook.
«Acepté la invitación para informar a la Junta de Supervisión de Facebook sobre lo que aprendí mientras trabajaba allí», escribió Haugen en Twitter. «Facebook le ha mentido a la junta en repetidas ocasiones y estoy deseando compartir la verdad con ellos».
En respuesta a las acusaciones de que Facebook proliferó la difusión de información errónea y discursos de odio antes del motín del 6 de enero en el Capitolio, Clegg dijo al «Estado de la Unión» de CNN que los individuos eran responsables de sus propias acciones.
Dijo que la eliminación de algoritmos solo promovería más información errónea porque funcionan como «filtros gigantes de spam».
La compañía también está buscando formas de reducir la presencia de política en Facebook para algunos usuarios, dijo.
«Nuestro trabajo es mitigar y reducir lo malo y amplificar lo bueno, y creo que esas inversiones, esa tecnología y algo de esa evidencia de cuán poco discurso de odio hay en comparación con hace unos años, muestra que nos estamos moviendo por el buen camino». dirección «, dijo a» Meet the Press «.