Facebook se disculpa después de que AI pusiera la etiqueta ‘Primates’ en un video de hombres negros

Los usuarios de Facebook que recientemente vieron un video de un tabloide británico con hombres negros vieron un mensaje automatizado de la red social que les preguntaba si les gustaría «seguir viendo videos sobre Primates», lo que hizo que la compañía investigara y deshabilitara la función impulsada por inteligencia artificial. que empujó el mensaje.

Facebook se disculpó el viernes por lo que llamó «un error inaceptable» y dijo que estaba investigando la función de recomendación para «evitar que esto vuelva a suceder».

El video, fechado el 27 de junio de 2020, fue de The Daily Mail y presentaba clips de hombres negros en altercados con civiles blancos y oficiales de policía. No tenía ninguna conexión con monos o primates.

Darci Groves, exgerente de diseño de contenido en la red social, dijo que un amigo le había enviado recientemente una captura de pantalla del mensaje. Luego lo publicó en un foro de comentarios sobre productos para empleados actuales y anteriores de Facebook. En respuesta, un gerente de producto de Facebook Watch, el servicio de video de la compañía, lo calificó de «inaceptable» y dijo que la compañía estaba «investigando la causa raíz».

La Sra. Groves dijo que el mensaje fue «horrible y atroz».

Dani Lever, portavoz de Facebook, dijo en un comunicado: “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas «.

Google, Amazon y otras compañías de tecnología han estado bajo escrutinio durante años por sesgos dentro de sus sistemas de inteligencia artificial, particularmente en torno a cuestiones raciales. Los estudios han demostrado que la tecnología de reconocimiento facial está sesgada en contra de las personas de color y tiene más problemas para identificarlas, lo que lleva a incidentes en los que las personas negras han sido discriminadas o arrestadas debido a errores informáticos.

Crédito…

En un ejemplo en 2015, Google Photos etiquetó erróneamente imágenes de personas negras como «gorilas», por lo que el gigante de las búsquedas dijo que estaba «realmente arrepentido» y que trabajaría para solucionar el problema de inmediato. Más de dos años después, Wired descubrió que la solución de Google era censurar la palabra «gorila» de las búsquedas, mientras que también bloqueaba «chimpancé», «chimpancé» y «mono».

Facebook tiene uno de los repositorios de imágenes subidas por usuarios más grandes del mundo en el que entrenar sus algoritmos de reconocimiento facial y de objetos. La empresa, que adapta el contenido a los usuarios en función de sus hábitos de navegación y visualización anteriores, a veces les pregunta a las personas si les gustaría seguir viendo publicaciones en categorías relacionadas. No estaba claro si mensajes como el de «primates» estaban generalizados.

Facebook e Instagram, su aplicación para compartir fotos, han luchado con otros problemas relacionados con la raza. Después del Campeonato Europeo de fútbol de julio, por ejemplo, tres miembros negros de la selección nacional de fútbol de Inglaterra fueron abusados ​​racialmente en la red social por fallar los tiros penales en el juego del campeonato.

Los problemas raciales también han causado conflictos internos en Facebook. En 2016, Mark Zuckerberg, el director ejecutivo, pidió a los empleados que dejaran de tachar la frase «Black Lives Matter» y reemplazarla por «All Lives Matter» en un espacio común en la sede de la empresa en Menlo Park, California. Cientos de empleados también realizaron una huelga virtual el año pasado para protestar por el manejo de la compañía de una publicación del presidente Donald J. Trump sobre el asesinato de George Floyd en Minneapolis.

Posteriormente, la empresa contrató a un vicepresidente de derechos civiles y realizó una auditoría de derechos civiles. En un informe anual de diversidad en julio, Facebook dijo que el 4,4 por ciento de sus empleados con sede en Estados Unidos eran negros, frente al 3,9 por ciento del año anterior.

Groves, quien dejó Facebook durante el verano después de cuatro años, dijo en una entrevista que ha habido una serie de pasos en falso en la compañía que sugieren que sus líderes no están priorizando formas de lidiar con los problemas raciales.

“Facebook no puede seguir cometiendo estos errores y luego decir: ‘Lo siento’”, dijo.

Salir de la versión móvil