Cada vez es más común que muchos productos sintéticos generados con inteligencia artificial aparecen en nuestras fuentes de noticias y búsquedas.
Lo que está en juego va mucho más allá de lo que aparece en nuestras pantallas.
Toda la cultura está siendo afectada por la ola de inteligencia artificial, un elemento insidioso que se está infiltrando en nuestras instituciones más importantes.
Tengamos en cuenta la ciencia.
Justo después del exitoso lanzamiento de GPT-4el modelo de inteligencia artificial más reciente de AbiertoAI y uno de los más avanzados que existen, el lenguaje de la investigación científica comenzó a mudar.
Especialmente dentro del propio campo de la inteligencia artificial.
Un nuevo estudio de este mes examinó revisiones de pares de científicos (pronunciamientos oficiales de investigadores sobre el trabajo de otros que forman la base del progreso científico) presentados en varias conferencias científicas prestigiosas y de alto perfil dedicadas al estudio de la inteligencia artificial.
En uno de ellos, estas revisiones por pares utilizaron la palabra «meticuloso» casi un 3400 por ciento más que el año anterior.
El uso de «loable”aumentó en casi un 900 por ciento y el de “intrincado”más del 1000 por ciento.
Otras conferencias importantes mostraron patrones similares.
Por supuesto, esos modos de expresión son algunas de las palabras de moda favoritas de grandes modelos de lenguaje moderno como ChatGPT.
En otras palabras, se sorprendió a un número significativo de investigadores en conferencias sobre IA enviando reseñas de pares sobre trabajos ajenos a la IA o, al menos, escribiéndolas con mucha ayuda de este tipo de tecnología.
Y cuanto más se acercaba la fecha límite para enviar reseñas, más mayor uso de inteligencia artificial en ellos.
Si esto te hace sentir incómodo (especialmente sin considerar la falta de confiabilidad actual de la IA) o si piensas que tal vez la ciencia no debería ser revisada por inteligencias artificiales, sino por los propios científicos, esos sentimientos enfatizan la paradoja en el corazón de esta tecnología:
No está claro cuál es el línea ética entre estafa y uso regular.
Algunas estafas de IA son fáciles de detectar, como un artículo de una revista médica que presenta una caricatura de una rata con genitales enormes.
Muchas otras son más insidiosas, como la vía regulatoria mal etiquetada y alucinada descrita en ese mismo artículo, una que también fue arbitrada (¿podríamos especular tal vez por otra inteligencia artificial?).
¿Qué sucede cuando la inteligencia artificial se utiliza en una de las formas previstas: para ayudar con la escritura?
Recientemente, surgió una controversia cuando quedó claro que búsquedas simples en bases de datos científicas generaban frases como “Como modelo de lenguaje de inteligencia artificial” en lugares donde los autores que confiaban en la inteligencia artificial habían olvidado cubrir sus huellas.
Si los propios autores simplemente hubieran eliminado esas marcas de agua accidentales, ¿lo harían?hubiera sido bueno ¿Utilizas la inteligencia artificial para escribir tus artículos?
Lo que sucede en la ciencia es un microcosmos de un problema mucho mayor.
¿Publicar en redes sociales?
Cualquier publicación viral en
Instagram se está llenando de modelos que fueron generados con inteligencia artificial, Spotify de canciones generadas con inteligencia artificial.
¿Publicas un libro?
Poco después suelen aparecer a la venta en Amazon”libros de ejercicios generados con inteligencia artificial que teóricamente acompañan tu libro (cuyo contenido es incorrecto; lo sé porque me pasó a mí).
Ahora el primeros resultados de una búsqueda en Google Suelen ser imágenes o artículos generados con inteligencia artificial.
Los principales medios de comunicación, como Sports Illustrated, han creado artículos generados por IA que se atribuyen a perfiles de autores igualmente falsos.
Los comerciantes que venden métodos de optimización de motores de búsqueda se jactan abiertamente de que utilizan inteligencia artificial para crear miles de elementos no deseados para robar trafico a sus competidores.
Luego está el uso cada vez mayor de la inteligencia artificial generativa para crear videos sinteticos baratos para niños en YouTube.
Algunos ejemplos son los horrores lovecraftianos, como los vídeos musicales sobre loros en los que los pájaros tienen ojos dentro de ojos, picos dentro de picos, y se transforman de forma incomprensible mientras cantan con voz artificial: “¡El loro en el árbol dice hola, hola! ”.
Las narrativas no tienen sentido, los personajes aparecen y desaparecen al azar, datos básicos como los nombres de las formas son incorrectos.
Después de identificar varios canales sospechosos en mi boletín, La perspectiva intrínseca, cableada encontró evidencia del uso de inteligencia artificial generativa en los procesos de producción de algunas cuentas con cientos de miles o incluso millones de suscriptores.
Como neurocientífico, esto me preocupa.
¿No es posible que en su esencia la cultura humana contenga micronutrientes cognitivos (cosas como oraciones coherentes, narrativas y continuidad de los personajes) que los cerebros en desarrollo necesitan?
Se supone que Einstein dijo: “Si quieres que tus hijos sean inteligentes, léales cuentos de hadas”. Si quieres que sean muy inteligentes, léeles más cuentos de hadas”.
Sin embargo, ¿qué sucede cuando un niño pequeño consume principalmente basura de ensueño generado con inteligencia artificial?
Estamos en medio de un vasto experimento de desarrollo.
Basura
Ahora hay tanta basura sintética en Internet que las empresas de inteligencia artificial y los propios investigadores están preocupados, no por la salud de la cultura, sino por lo que va a pasar con sus modelos.
Cuando las capacidades de IA aumentaron en 2022, escribí sobre el riesgo de que la cultura se inunde tanto con creaciones de IA que, al entrenar a las IA del futuro, los resultados anteriores de la IA se filtren en la mezcla. formar y producir un futuro de copias de copias de copiasa medida que el contenido se vuelve cada vez más estereotipado y predecible.
En 2023, los investigadores introdujeron un término técnico para describir cómo este riesgo afectaba al entrenamiento de IA:
En cierto modo, nosotros y estas empresas estamos en el mismo barco, remando por el mismo barro que se vierte en nuestro océano cultural.
Con esta desagradable analogía en mente, vale la pena analizar la que podría ser la analogía histórica más clara de nuestra situación actual: el movimiento ecologista y el cambio climático.
Así como la inexorable economía de la contaminación hizo que empresas e individuos contaminaran, la contaminación cultural de la inteligencia artificial se debe a la decisión racional de satisfacer el apetito voraz por los contenidos de Internet de la forma más barata posible.
A pesar de problemas ambientales ni siquiera están cerca de resolverse, ha habido una progreso innegable lo que ha mantenido nuestras ciudades casi libres de smog y nuestros lagos casi libres de aguas residuales.
Antes de cualquier solución específica a nivel político, se reconocía que la contaminación ambiental era un problema que necesitaba legislación externa.
Esta visión fue influenciada por una perspectiva desarrollada en 1968 por Garrett Hardin, biólogo y ecologista.
Hardin enfatizó que la razón detrás del problema de la contaminación era que las personas actuaban para su propio beneficio y que, por lo tanto, “estamos atrapados en un sistema de ‘ensuciar nuestro propio nido’, siempre y cuando nos comportemos como empresarios independientes y racionales. y gratis.»
Hardin resumió el problema como una “tragedia de los comunes”.
Este enfoque fue decisivo para el movimiento ecologista, que pasaría a depender de la regulación gubernamental hacer lo que las empresas por sí solas no podían o no querían hacer.
Otra tragedia colectiva
Una vez más nos encontramos representando una tragedia de los comunes: el interés económico a corto plazo fomenta el uso de contenidos baratos de inteligencia artificial para maximizar los clics y las vistas, lo que a su vez contamina nuestra cultura e incluso debilita nuestra percepción de la realidad.
Y hasta ahora, las grandes empresas de IA se han negado a buscar medios avanzados para identificar el trabajo de IA, lo que podrían hacer agregando patrones estadísticos sutiles ocultos en el uso de palabras o píxeles de imágenes.
Una justificación común para la inacción es que los editores humanos siempre podrían modificar los patrones implementados si saben lo suficiente.
Sin embargo, muchos de los problemas que estamos experimentando no son causados por actores maliciosos motivados y técnicamente capaces, sino por usuarios normales que no siguen una línea de uso ético tan fina que es casi inexistente.
La mayoría no está interesada en tácticas defensivas avanzadas para patrones estadísticos que se implementaron en productos que, idealmente, Deberían tener la marca de que fueron generados por inteligencia artificial.
Es por eso que investigadores independientes pudieron detectar resultados de IA en el sistema de revisión por pares con una precisión sorprendentemente alta:
Del mismo modo, los profesores de todo el país han creado métodos de detección caseros, como agregar indicaciones ocultas para patrones de uso de palabras en instrucciones de redacción de ensayos que solo aparecen cuando se copian y pegan.
En particular, las empresas de IA parecen oponerse a cualquier patrón integrado en sus productos que pueda mejorar los esfuerzos de detección de IA a niveles razonables, tal vez porque temen que la implementación de dichos patrones pueda interferir sobre el rendimiento del modelo al limitar demasiado sus resultados, aunque actualmente no hay evidencia de que esto sea un riesgo.
A pesar de las promesas públicas anteriores de desarrollar marcas de agua más avanzadas, está cada vez más claro que la desgana y la lentitud de las empresas se debe a que tener productos detectables va en contra de las ganancias de la industria de la IA.
Para abordar esta negativa corporativa a actuar, necesitamos el equivalente a una Ley de Aire Limpio: una Ley de Internet Limpia.
Quizás la solución más sencilla sería obligar legislativamente a los productos generados a introducir marcas de agua avanzadas intrínsecas, como patrones que no se puedan eliminar fácilmente.
Así como el siglo XX requirió grandes intervenciones para proteger el medio ambiente que compartimos, el siglo XXI requerirá grandes intervenciones para proteger un recurso común diferente, pero igualmente crucial, del que no nos hemos dado cuenta hasta ahora porque nunca estuvimos amenazados:
nuestra cultura humana compartida.
c.2024 La Compañía del New York Times