Algoritmo de Facebook marca ‘hoe’ como violación en un grupo de jardinería

Moderar un grupo de jardinería de Facebook en el oeste de Nueva York no está exento de desafíos. Hay quejas de chinches lanudos, inclemencias del tiempo y los miembros novatos que insisten en usar detergente para platos en sus plantas.

Y luego está la palabra “puta”.

Los algoritmos de Facebook a veces señalan esta palabra en particular como “violando los estándares de la comunidad”, aparentemente refiriéndose a una palabra diferente, una sin una “e” al final que, sin embargo, a menudo se escribe mal como herramienta de jardín.

Normalmente, los sistemas automatizados de Facebook marcarán las publicaciones con material ofensivo y las eliminarán. Pero si los miembros de un grupo, o peor aún, los administradores, violan las reglas demasiadas veces, todo el grupo puede cerrarse.

Elizabeth Licata, una de las moderadoras del grupo, estaba preocupada por esto. Después de todo, el grupo, WNY Gardeners, tiene más de 7500 miembros que lo utilizan para obtener consejos y sugerencias sobre jardinería. Ha sido especialmente popular durante la pandemia cuando muchas personas confinadas a sus hogares se dedicaron a la jardinería por primera vez.

Deberías leer:   Las ganancias de IPG muestran una fuerte recuperación continua de la publicidad

Una azada con cualquier otro nombre podría ser un rastrillo, una rastra o un rototill. Pero Licata no estaba dispuesta a prohibir la palabra del grupo ni a intentar eliminar cada instancia. Cuando un miembro del grupo comentó “¡Empuja, jala, azada!” en una publicación que solicitaba “tu herramienta de limpieza más querida e indispensable”, Facebook envió una notificación que decía “Revisamos este comentario y descubrimos que va en contra de nuestros estándares de acoso e intimidación”.

Facebook utiliza tanto moderadores humanos como inteligencia artificial para erradicar el material que va en contra de sus reglas. En este caso, un humano probablemente habría sabido que una azada en un grupo de jardinería probablemente no es un caso de acoso o intimidación. Pero la IA no siempre es buena en el contexto y los matices del lenguaje.

También echa mucho de menos: los usuarios a menudo se quejan de que informan sobre lenguaje violento o abusivo y las reglas de Facebook de que no viola los estándares de la comunidad. La desinformación sobre vacunas y elecciones ha sido un problema de larga data y bien documentado para la empresa de redes sociales. Por otro lado, hay grupos como el de Licata que se ven atrapados en algoritmos demasiado entusiastas.

Deberías leer:   Twitter suspende a Marjorie Taylor Greene por publicar información errónea sobre el coronavirus

“Entonces me puse en contacto con Facebook, que fue inútil. ¿Cómo haces eso?” ella dijo. “Sabes, dije que este es un grupo de jardinería, una azada es una herramienta de jardinería”.

Licata dijo que nunca supo de una persona y Facebook, y descubrió que navegar por el sistema de encuestas de la red social y las formas de tratar de aclarar las cosas era inútil.

Contactado por The Associated Press, un representante de Facebook dijo en un correo electrónico esta semana que la compañía encontró al grupo y corrigió las ejecuciones erróneas. También puso una verificación adicional, lo que significa que alguien, una persona real, revisará las publicaciones ofensivas antes de que se considere la eliminación del grupo. La empresa no dijo si otros grupos de jardinería tenían problemas similares. (En enero, Facebook marcó por error el hito de Plymouth Hoe en el Reino Unido como ofensivo y luego se disculpó, según The Guardian).

“Tenemos planes para desarrollar una mejor atención al cliente para nuestros productos y brindar al público aún más información sobre nuestras políticas y cómo las aplicamos”, dijo Facebook en un comunicado en respuesta a las quejas de Licata.

Deberías leer:   Just Eat Takeaway enfrenta la presión de un importante accionista

Entonces, surgió algo más. Licata recibió una notificación de que Facebook inhabilitó automáticamente los comentarios en una publicación debido a “posible violencia, incitación u odio en varios comentarios”.

Los comentarios ofensivos incluyeron “Mátalos a todos. Ahogarlos en agua con jabón ”y“ Los escarabajos japoneses son unos idiotas ”.

Regístrese para recibir boletines informativos diarios

Copyright © 2021 The Washington Times, LLC.