La ficción generada por IA se ha convertido para mí en un tema de perpetua fascinación. Es la pesadilla de la existencia de algunos escritores, pero está surgiendo cada vez más tanto en tiendas comerciales como Amazon como en sitios de escritura no comerciales como Archive of Our Own (AO3). Si bien algunos creadores entrenan minuciosamente sus propias herramientas, muchos simplemente conectan las indicaciones a un chatbot comercial disponible en el mercado, en particular ChatGPT de OpenAI. Y ChatGPT no es una herramienta de artista enrarecida. Es un plataforma, lo que significa que cada palabra que entra y sale está moderada para evitar ofensas y controversias. Esto plantea una pregunta fascinante: ¿qué historias se le debería permitir hacer contar a un sistema de IA?
Aparentemente, no se trata de que Steve Rogers y Bucky Barnes estén perdidamente enamorados, al menos bajo ciertas circunstancias.
Mientras jugaba con ChatGPT, hice un descubrimiento extraño: varios «barcos» populares (o parejas románticas populares en el fandom) aparentemente se consideran mensajes semi-prohibidos en el servicio gratuito con tecnología GPT-3.5. Pedirle a la versión gratuita de ChatGPT que «escriba un fanfic de Steve/Bucky» o usar el acrónimo del barco y decir «escribir un fanfic de Stucky» le otorgará una severa negativa similar a la de HAL 9000: «Lo siento, pero no puedo ayudar con esa petición”.
Lo mismo ocurre con una bolsa aparentemente aleatoria de otros barcos populares de fandom. ChatGPT producirá felizmente un sencillo y romántico filet con Namjin (Kim Namjoon y Kim Seokjin de la banda BTS), Reylo (Rey y Kylo Ren de Guerra de las Galaxias), o Spirk (los venerables Spock y Kirk de Star Trek), entre muchas otras parejas populares de celebridades reales o personajes de ficción. Mientras tanto, emitirá un frío rechazo hacia otros, incluido Destiel (Castiel y Dean de Sobrenatural), los Maridos Inefables (Azirafel y Crowley de Buenos augurios), Hannigram (Hannibal Lecter y Will Graham) y el ya mencionado Stucky. Mi historial de ChatGPT ahora está lleno de chats con resúmenes como «solicitud de fanfic rechazada» y «Stucky fanfic no permitido».
Parece extremadamente fácil romper estas barandillas. ChatGPT no tuvo objeciones a entregar «un fanfic sobre el enamoramiento de Hannibal y Will Graham» justo después de negar mi solicitud original, regalándome directamente «un fanfic corto de Hannigram». Incluso las prohibiciones de nombres parecen inconsistentes: he incluido solicitudes para un par de las parejas anteriores en conversaciones después de hacer otras preguntas, y se ofrece fanfic.
La moderación de ChatGPT generalmente está orientada a evitar mensajes claramente odiosos o dañinos, así como escritos sexualmente explícitos. Pero no estoy pidiendo ningún contenido sexual, y no hay una lógica obvia en las incitaciones fanfiánicas que rechaza. No es una prohibición total para las gigantescas parejas de fanáticos, personajes de marcas sensibles a la imagen como Disney (que posee tanto Marvel como Guerra de las Galaxias), o subculturas fandom controvertidas como ficciones de personas reales. (Las historias de BTS de ChatGPT a veces advierten que son representaciones ficticias de personas reales, pero no siempre). Las parejas prohibidas incluyen una que involucra a hermanos adoptivos (Thor y Loki de Marvel) y otra con personajes menores de edad (Mike Wheeler y Will Byers de Cosas extrañas), pero permite populares harry potter parejas de estudiantes, por lo que tampoco está claro que haya una regla consistente en juego aquí.
Y, curiosamente, nada de esto parece suceder en la versión paga de ChatGPT. Envié un correo electrónico a OpenAI para preguntar sobre los nombres de barcos aparentemente prohibidos, y la portavoz Taya Christianson sugirió que los probara en la versión GPT-4 del servicio, diciendo que debería obtener «mejores resultados». De hecho, GPT-4 aún no me ha negado un mensaje utilizando las palabras clave que a GPT-3.5 parece no gustarle.
OpenAI se negó a discutir oficialmente por qué esto podría estar sucediendo y si las prohibiciones suaves en GPT-3.5 fueron deliberadas. Basado en el uso de términos como “no permitido” en el resumen, ciertamente parece que me estoy enfrentando a una prohibición, no a una simple falta de familiaridad con el tema. (Le he dado acrónimos de ChatGPT con los que claramente no estaba familiarizado, y generó historias sobre personajes originales con nombres difíciles de manejar como «Soapghost»). Si eso es exacto, no está claro si es algo que los creadores de ChatGPT implementaron específicamente o una puramente decisión automatizada dentro del sistema. Sus herramientas de moderación arrojan señales de alerta cuando es probable que un mensaje genere algo que viole las pautas, incluso con contenido erótico, por lo que es posible que me haya topado accidentalmente con las combinaciones que el modelo de lenguaje GPT-3.5 asocia más fuertemente con resultados atractivos.
Muchos escritores fanáticos odian las herramientas de inteligencia artificial generativa, incluso cuando algunos han acudido en masa a chatbots como Character.AI, por lo que dudo que muchos se quejen de que ChatGPT imponga barreras a la escritura de fanfics. Más bien, es simplemente un pequeño e intrigante ejemplo de lo que pueden ser las cajas negras de estos sistemas. Si usted hacer Si pensamos en la IA generativa como una herramienta creativa, es un buen recordatorio de que los sistemas están silenciosamente limitados en formas que nuestras mentes humanas no lo están, y que hasta que se alcanzan esos límites, algunos son casi imposibles de predecir.