BAhora la sofisticación de la información falsa sobre Israel y Hamás queda clara para cualquiera que abra su teléfono esta semana. A medida que las plataformas tecnológicas dependen cada vez más de la inteligencia artificial en su batalla contra la desinformación, los estragos en Medio Oriente exponen los límites de la tecnología a los daños de la tecnología policial. Es más importante que nunca que comprendamos cómo plataformas globales como Meta, Google y X, la plataforma antes conocida como Twitter, toman decisiones sobre qué contenido se amplifica y qué se elimina. “Simplemente confíen en nosotros” no es suficiente cuando están perdiendo la batalla contra propagandistas cada vez más bien armados.
No es que las plataformas no supieran que tenían un enorme problema de desinformación que los moderadores de contenido humanos por sí solos no podían resolver. Hace dos años, la denunciante de Facebook Frances Haugen detalló ante el Congreso cómo el crecimiento y las ganancias impulsaron las decisiones: «El resultado ha sido más división, más daño, más mentiras, más amenazas y más combates», testificó. «En algunos casos, esta peligrosa red hablar ha conducido a violencia real que daña e incluso mata a la gente”.
Pero el Congreso todavía no puede ponerse de acuerdo sobre las barreras básicas para responsabilizar a las plataformas. Mi colega de la Escuela Kennedy de Harvard, la científica informática Latanya Sweeney, estima que dentro de un año Internet tal como la conocemos habrá sido suplantada por una en la que la gran mayoría del contenido proviene de bots. Y si hay algo que hemos aprendido a medida que la IA generativa sale del laboratorio y entra en nuestras redes, teléfonos y vidas, es con qué confianza y ostentación miente.
Necesitamos una gama más amplia de voces para abordar la responsabilidad que desempeñan las plataformas en la protección de la salud de nuestra ecología de la información. No me refiero sólo a tecnólogos y psicólogos, economistas y especialistas en ética, aunque todos necesitan un asiento en la mesa: me refiero tanto a los fantasmas como a las máquinas. Las personas afectadas por estas tecnologías de maneras que quienes las construyeron no previeron también deben ser escuchadas.
Más del TIEMPO
Archivar los documentos internos de Facebook
Corresponde a la creciente disciplina de la Tecnología de Interés Público, prima de la Salud Pública y la Ley de Interés Público, avanzar en la investigación y dar forma al debate sobre la colonización de nuestra plaza pública por parte de empresas privadas. Con ese desafío en mente, esta semana el ex presidente Barack Obama viene a Harvard para una cumbre sobre el futuro de Internet. La Facultad de Derecho de Harvard lanzará un nuevo Laboratorio de Medios Sociales Aplicados para “reimaginar, reconstruir y reiniciar los medios sociales para servir al bien público”. Mientras tanto, en la Escuela Kennedy de Harvard, el Laboratorio de Tecnología de Interés Público de Sweeney lanzará FBArchive.org, una nueva plataforma de investigación que permite a investigadores y periodistas estudiar los documentos internos de Facebook que compartió Haugen.
Las plataformas principales funcionan como bóvedas revestidas de plomo con cortinas opacas. Conocemos los daños que se derivan, pero todavía tenemos poca idea de las decisiones que se toman. ¿Se aplican sistemáticamente las directrices de moderación de contenidos y, en caso contrario, qué excepciones se permiten y quién tiene autoridad para otorgarlas? ¿Cómo se lleva a cabo la moderación de contenido internacional? ¿Depende principalmente de sofisticados algoritmos de inteligencia artificial o de evaluaciones manuales realizadas por angloparlantes que revisan los resultados de Google Translate?
Dado todo lo opaco sobre cómo las plataformas tecnológicas toman decisiones sobre privacidad, moderación de contenido y diseño de algoritmos, FBarchive se creó para proporcionar cierto grado de transparencia. Meta, la empresa matriz de Facebook, investiga mucho sobre sus productos, incluido Facebook, y tiene una gran cantidad de datos sobre el impacto de los cambios en su diseño. Los documentos publicados por Haugen revelan, por ejemplo, que los moderadores consideraron «presupuestos de compensación», de modo que incluso cuando estaba proliferando contenido demostrablemente dañino en Etiopía o Myanmar, Meta exigía que calcularan los costos financieros antes de reducir el alcance de dicho contenido o eliminarlo. abajo.
El nuevo archivo en línea crea un espacio para que las personas agreguen contexto e ideas a escala, en un tipo de investigación colaborativa que de otro modo sería imposible. Es sólo un ejemplo de la unión de mentes y máquinas, que protege la privacidad individual y al mismo tiempo permite a los investigadores comprender las compensaciones que enfrentan los líderes empresariales que están equilibrando sus responsabilidades para con el público y sus accionistas.
Poner a los humanos en el centro
Esto es lo que los tecnólogos de interés público llaman “solución de problemas centrada en las personas”, y es imposible crear una “Internet de interés público” sin involucrar a las personas muy humanas que dan forma al funcionamiento de Internet. Suponiendo que es poco probable que el Congreso recupere la brecha en el corto plazo, por el momento tenemos que confiar en el juicio e incluso en el propio interés de los líderes de las empresas de tecnología para acordar estándares industriales compartidos que protejan los derechos individuales, nuestros bienes públicos y el ecosistema de información. —y, en última instancia, para proteger la democracia.
Twitter alguna vez fue una especie de modelo para compartir datos y estándares comunitarios, pero ya no. Y el punto de partida ha sido obvio durante mucho tiempo: mucha mayor transparencia sobre cómo se diseñan los algoritmos y cómo se toman las decisiones de contenido. Eso otorgaría a investigadores, periodistas, jueces, sociedad civil y formuladores de políticas más poder para desempeñar sus roles esenciales en la configuración de un espacio público saludable. Incluso mientras nos maravillamos ante la capacidad de nuestros nuevos amigos robots para escribir un soneto o predecir cómo se pliegan las proteínas, vale la pena recordar que sin la experiencia y los valores que los humanos aportan a la ecuación, es probable que las soluciones fracasen, especialmente cuando estas tecnologías logran hacerlo. Es mucho más fácil deshumanizarnos unos a otros.
Continuar leyendo: Los humanos necesitan supervisar la IA que monitorea Internet