Rumman Chowdhury, exdirectora de ética, transparencia y responsabilidad del aprendizaje automático en Twitter, dijo en una charla reciente que no cree que pueda existir una vigilancia ética de inteligencia artificial.
«No podemos poner lápiz labial en un cerdo», señaló el científico de datos de la Facultad de Ciencias Sociales de la Universidad de Nueva York. «No creo que pueda existir una vigilancia ética».
En una entrevista publicada el lunes en The Guardian, que destaca esa declaración, Chowdhury advirtió que el aumento del capitalismo de vigilancia le preocupa enormemente.
Afirmó que es un uso de la tecnología que, en su esencia, es inequívocamente racista y, como tal, no debe entretenerse.
EL ‘PADRINO DE LA IA’ DICE QUE HAY UN ‘PELIGRO GRAVE’ LA TECNOLOGÍA SERÁ MÁS INTELIGENTE QUE LOS HUMANOS BASTANTE PRONTO
Rumman Chowdhury, cofundadora de Humane Intelligence, una organización sin fines de lucro que desarrolla sistemas de inteligencia artificial responsables, posa para una fotografía en su casa el lunes 8 de mayo de 2023 en Katy, Texas. (Foto AP/David J. Phillip)
En un artículo de opinión reciente para Wired al que se hace referencia en el artículo, Chowdhury también dijo que solo se puede confiar en una junta externa de personas para gobernar la IA.
«Estamos recibiendo toda esta atención de los medios», le dijo a The Guardian, «y todo el mundo está como, ‘¿Quién está a cargo?’ Y luego todos nos miramos unos a otros y decimos, ‘Um. ¿Todos?'»
En la entrevista, lamentó lo que llama «externalización moral» o reasignación de responsabilidades por lo que se construye en los propios productos.
Su enfoque de la regulación es que deben existir «mecanismos de rendición de cuentas», y dice que la falta de rendición de cuentas es un problema.

Rumman Chowdhury, cofundadora de Humane Intelligence, una organización sin fines de lucro que desarrolla sistemas de inteligencia artificial responsables, trabaja frente a su computadora el lunes 8 de mayo de 2023 en Katy, Texas. (Foto AP/David J. Phillip)
«Simplemente existe el riesgo y luego tu voluntad de correr ese riesgo», explicó, afirmando que cuando el riesgo de fallar se vuelve demasiado grande, se traslada a un escenario donde las reglas se tuercen en una dirección específica.
EL CEO DE OPENAI ALTMAN SE RETROCEDE DESPUÉS DE AMENAZA CON SALIR DE EUROPA POR PREOCUPACIONES DE REGULACIÓN EXCESIVA
«Hay muy pocos actores fundamentalmente buenos o malos en el mundo», continuó. «La gente simplemente opera con estructuras de incentivos».
La becaria responsable de inteligencia artificial de la Universidad de Harvard dijo que su objetivo era cerrar la brecha de comprensión entre los tecnólogos que «no siempre entienden a las personas, y las personas [who] no siempre entiendo la tecnología».
«En el centro de la tecnología está la idea de que la humanidad tiene fallas y que la tecnología puede salvarnos», dijo.

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante un evento en la sede de Microsoft en Redmond, Washington, el martes 7 de febrero de 2023. (Chona Kasinger/Bloomberg vía Getty Images)
En particular, Chowdhury está trabajando en un evento de equipo rojo, durante el cual se alienta a los piratas informáticos y programadores a intentar reducir las medidas de seguridad y presionar a la tecnología para que haga cosas malas, para Def Con, que es una convención organizada por la organización de piratas informáticos AI Village. El «hackathon» cuenta con el apoyo de líderes de la industria, incluidos OpenAI, Google y Microsoft, y la administración de Biden.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Ella dijo que cree que es solo a través de tales esfuerzos colectivos que pueden ocurrir una regulación y aplicación adecuadas, aunque advirtió que la regulación excesiva podría llevar a que los modelos se corrijan en exceso.
El medio dijo que Chowdhury agregó que no es fácil definir qué es tóxico u odioso.
«Es un viaje que nunca terminará», dijo. «Pero estoy bien con eso».