La esencia
- Trabajo perturbador. Los moderadores de IA soportan contenido explícito para el entrenamiento de bots.
- Disparidad salarial. Los contratistas de OpenAI alegan explotación e inician la sindicalización.
- Peaje mental. El trabajo de moderación de IA conduce a graves problemas de salud mental.
Advertencia: el siguiente artículo analiza el posible impacto emocional y psicológico de trabajar con modelos de lenguaje de IA y menciona experiencias personales que involucran contenido angustiante. Se recomienda la discreción del lector.
Richard Mathenge sintió que había conseguido el papel perfecto cuando comenzó a entrenar el modelo GPT de OpenAI en 2021. Después de años de trabajar en servicio al cliente en Nairobi, Kenia, finalmente estaba involucrado en algo significativo, con futuro.
Sin embargo, aunque prometedor, el puesto lo dejó marcado. Durante nueve horas al día, cinco días a la semana, Mathenge dirigió un equipo que enseñó al modelo sobre contenido explícito, presumiblemente para mantenerlo alejado de nosotros. Hoy, permanece pegado a ellos.
Los moderadores de contenido de IA lidiaron con material inquietante para el entrenamiento de bots
Mientras trabajaban, Mathenge y su equipo vieron repetidamente texto explícito y lo etiquetaron para el modelo. Podrían categorizarlo como material de abuso sexual infantil, contenido sexual erótico, ilegal, no sexual y algunas otras opciones. Mucho de lo que leyeron los horrorizó. Un pasaje, dijo Mathenge, describía a un padre teniendo sexo con un animal frente a su hijo; otros involucraron escenas de violación infantil. Algunos eran tan ofensivos que Mathenge se negó a hablar de ellos. “Inimaginable”, me dijo.
El tipo de trabajo que realizó Mathenge ha sido crucial para que bots como ChatGPT y Bard funcionen, y se sientan mágicos, pero se ha pasado por alto ampliamente. En un proceso llamado Aprendizaje de refuerzo a partir de comentarios humanos, o RLHF, los bots se vuelven más inteligentes a medida que los humanos etiquetan el contenido, enseñándoles cómo optimizar en función de esos comentarios. Los líderes de IA, incluido Sam Altman de OpenAI, han elogiado la efectividad técnica de la práctica, pero rara vez hablan sobre el costo que pagan algunos humanos para alinear los sistemas de IA con nuestros valores. Mathenge y sus colegas estaban en el lado comercial de esa realidad.
Artículo Relacionado: El CEO de OpenAI testifica sobre la seguridad y la ética de la IA en una audiencia en el Senado de EE. UU.
Contratista de OpenAI revela explotación en la industria de IA
Mathenge obtuvo un título de la Universidad Nazarena de África de Nairobi en 2018 y rápidamente comenzó a trabajar en el sector tecnológico de la ciudad. En 2021, solicitó trabajo con Sama, un servicio de anotación de IA que funcionó para empresas como OpenAI. Después de que Sama contratara a Mathenge, lo puso a trabajar etiquetando imágenes LiDAR para autos sin conductor. Revisaba las imágenes y seleccionaba personas, otros vehículos y objetos, lo que ayudaba a los modelos a comprender mejor lo que encontraban en la carretera.
Cuando terminó el proyecto, Mathenge fue transferido para trabajar en los modelos de OpenAI. Y allí, se encontró con los inquietantes textos. OpenAI me dijo que creía que estaba pagando a sus contratistas de Sama $12,50 por hora, pero Mathenge dice que él y sus colegas ganaban aproximadamente $1 por hora y, a veces, menos. En respuesta a los bajos salarios, algunos han trabajado desde entonces para establecer una Unión Africana de Moderadores de Contenido, como informó por primera vez Time.
Artículo relacionado: Elon Musk puede construir la alternativa ChatGPT, pero ¿es el héroe de Sam Altman?
El trabajo de moderación de IA tiene un alto costo para la salud mental
Pasando sus días inmersos en representaciones de incesto, bestialidad y otras escenas explícitas, el equipo comenzó a retraerse. “Puedo darme cuenta cuando a mi equipo no le está yendo bien, cuando no están interesados en presentarse a trabajar”, dijo Mathenge. “Mi equipo solo estaba enviando señales de que no están listos para comprometerse con tales redacciones”.
Mophat Okinyi, analista de control de calidad del equipo de Mathenge, todavía está lidiando con las consecuencias. La exposición repetida a texto explícito, dijo, provocó insomnio, ansiedad, depresión y ataques de pánico. La esposa de Okinyi lo vio cambiar, dijo, y lo dejó el año pasado. “Por mucho que me sienta bien ver a ChatGPT volverse famoso y ser utilizado por muchas personas en todo el mundo”, dijo Okinyi, “hacer que sea seguro destruyó a mi familia. Destruyó mi salud mental. Mientras hablamos, todavía estoy luchando con el trauma”.
Puede escuchar mi conversación completa con Mathenge en Big Technology Podcast a través de Apple Podcasts, Spotify o la aplicación que prefiera.
OpenAI responde a reclamos de malas condiciones de los contratistas
OpenAI sabía que se suponía que estos trabajadores debían recibir asesoramiento de rutina, pero Okinyi y Mathenge lo encontraron insuficiente. “En algún momento, el consejero informó”, dijo Mathenge, “pero se notaba que no era profesional. No estaba calificado, lamento decirlo. Hacer preguntas básicas como ‘¿Cuál es tu nombre?’ y ‘¿Cómo encuentras tu trabajo?’”
En un comunicado que me envió, OpenAI dijo que se toma muy en serio la salud mental de sus empleados y contratistas. “Una de las razones por las que contratamos a Sama por primera vez fue por su compromiso con las buenas prácticas”, dijo un portavoz. “Nuestro entendimiento anterior era que se ofrecían programas de bienestar y asesoramiento 1: 1, los trabajadores podían optar por no participar en cualquier trabajo sin penalización, la exposición a contenido explícito tendría un límite y la información confidencial sería manejada por trabajadores específicamente capacitados para hacerlo. .”
Moderadores de AI de Kenia trabajando para superar los desafíos
El portavoz de OpenAI dijo que la empresa buscó más información de Sama sobre sus condiciones de trabajo. Sama, dijo el portavoz, luego informó a OpenAI que estaba saliendo del espacio de moderación de contenido. Sama no respondió a una solicitud de comentarios.
Para Mathenge, la idea de que evaluaría las compensaciones antes de continuar con este trabajo sonaba como un lujo. Estaba feliz de estar empleado mientras la economía de Kenia se tambaleaba en medio de cierres económicos globales. “Es durante la temporada de COVID”, dijo. “Conseguir trabajo en un país en desarrollo es una bendición en sí misma”.
Después de todo esto, Mathenge y sus colegas se sienten orgullosos del trabajo que realizaron. Y fue efectivamente efectivo. Hoy, ChatGPT se niega a producir las escenas explícitas que el equipo ayudó a eliminar y emite advertencias sobre actos sexuales potencialmente ilegales. “Para mí y para nosotros, estamos muy orgullosos”, dijo Mathenge. Están orgullosos, pero todavía están dolidos.
Continuar leyendo: Moderadores de contenido de IA que luchan contra la explotación y el trauma