Zoom, Twitter golpeado por acusaciones de sesgo racial en algoritmos, Twitter dice trabajo por hacer

Zoom, Twitter Hit by Allegations of Racial Bias in Algorithms, Twitter Says Work to Be Done


Twitter y Zoom fueron detectados durante el fin de semana por tener un sesgo racial en sus algoritmos visuales. Todo comenzó cuando alguien notó cómo Zoom parecía estar quitando la cabeza de las personas con una pigmentación de piel más oscura cuando usan un fondo virtual, mientras que no hace este movimiento en las personas que tienen una pigmentación de piel más clara. En el tweet utilizado para informar sobre el problema de Zoom, se vio irónicamente que Twitter también parece tener un sesgo racial cuando recorta las miniaturas para favorecer la cara de una persona blanca sobre una negra. Twitter respondió a la indignación que surgió, diciendo que estaba claro que tenía más trabajo por hacer.

Zoom inicialmente parecía tener un problema con sus algoritmos de fondo virtual que se manifiestan como un sesgo racial. Investigador Colin Madland al corriente un hilo en Twitter el sábado que subrayó el problema con el algoritmo de detección de rostros que supuestamente borra los rostros negros al aplicar un fondo virtual en la aplicación de videoconferencia.

Gadgets 360 se acercó a Zoom para obtener una aclaración sobre el algoritmo y la empresa le informó que estaba investigando el problema. “Nos hemos comunicado directamente con el usuario para investigar este problema. Estamos comprometidos a proporcionar una plataforma que sea inclusiva para todos ”, dijo un portavoz de Zoom en un comunicado.

En el mismo hilo, con Madland publicando fotos de cada usuario en el chat, el algoritmo de recorte de imágenes en miniatura de Twitter parecía estar favoreciendo a Madland sobre su colega negro.

Oferta de diseño del jefe de Twitter, Dantley Davis, respondió a las observaciones de Madland con diciendo «Es 100 por ciento nuestra culpa. Nadie debería decir lo contrario. Ahora el siguiente paso es arreglarlo».

Poco después, varios usuarios de Twitter publicaron fotos en la plataforma de microblogging para resaltar el aparente sesgo. El CTO de Twitter, Parag Aggarwal, también reaccionó a la tendencia:

Otro ejemplo vino del ingeniero criptográfico Tony Arcieri, quien el domingo tuiteó las fotografías policiales del ex presidente de Estados Unidos, Barack Obama, y ​​del líder de la mayoría en el Senado, Mitch McConnell, para comprender si el algoritmo de la plataforma destacaría al primero o al segundo. Arcieri usó diferentes patrones para poner las fotos policiales en las imágenes, pero en todos los casos, Twitter mostró a McConnell sobre Obama.

Sin embargo, una vez que el ingeniero invirtió los colores de las fotos policiales, la imagen de Obama apareció en la vista recortada. El productor de Intertheory Kim Sherrell también encontró que el algoritmo modifica la preferencia una vez que se cambia la imagen de Obama con una sonrisa de mayor contraste.

Algunos usuarios también encontraron que el algoritmo parece enfocarse en complexiones más brillantes incluso en el caso de dibujos animados y animales. Diferentes clientes de Twitter como Tweetdeck y Twitterrific, así como las vistas de dispositivos móviles, aplicaciones y computadoras de escritorio, mostraron diferentes prioridades para el recorte de imágenes, algunos usuarios célebre.

Portavoz de Twitter Liz Kelley respondió a los tweets que plantean acusaciones de prejuicio racial contra la plataforma y dijo: “Probamos el prejuicio antes de enviar el modelo y no encontramos evidencia de prejuicio racial o de género en nuestra prueba, pero está claro que tenemos más análisis por hacer. » Añadió diciendo: «Abriremos nuestro trabajo para que otros puedan revisarlo y replicarlo».

En 2017, Twitter suspendió la detección de rostros para recortar imágenes automáticamente en la línea de tiempo de los usuarios y implementó un algoritmo de detección de prominencia que tenía como objetivo centrarse en regiones de imagen «destacadas». Ingeniero de Twitter Zehan Wang tuiteó que el equipo realizó algunos estudios de sesgo antes de lanzar el nuevo algoritmo y en ese momento descubrió que «no había un sesgo significativo entre las etnias (o géneros)». Sin embargo, agregó que la empresa revisaría el estudio proporcionado por los usuarios de Twitter.


¿Son el Apple Watch SE y el iPad de 8.a generación los productos perfectos y asequibles para la India? Hablamos de esto en Orbital, nuestro podcast tecnológico semanal, al que puede suscribirse a través de Apple Podcasts, Google Podcasts o RSS, descargue el episodio o simplemente presione el botón de reproducción a continuación.



Salir de la versión móvil