Manténgase informado con actualizaciones gratuitas
Simplemente regístrese en myFT Digest de inteligencia artificial, que se envía directamente a su bandeja de entrada.
TikTok se convertirá en la primera plataforma de redes sociales en etiquetar automáticamente algunos contenidos generados por inteligencia artificial, a medida que los rápidos avances en la IA generativa profundizan las preocupaciones sobre la difusión de desinformación y deepfakes en línea.
Los grupos en línea, como Meta, propietario de Facebook, y TikTok, ya requieren que los usuarios revelen si se crean imágenes, audio o videos realistas a través de software de inteligencia artificial.
La aplicación de vídeo viral, propiedad de ByteDance de China, fue un paso más allá el jueves y anunció que introducirá sus propias funciones para garantizar que los vídeos que pueda identificar como generados por IA sean etiquetados como tales. Esto incluirá contenido creado con la herramienta Firefly de Adobe, los propios generadores de imágenes de IA de TikTok y Dall-E de OpenAI.
“El desafío es que sabemos por muchos expertos con los que trabajamos que hay un aumento en. . . contenido dañino generado por IA”, dijo Adam Presser, jefe de operaciones y confianza y seguridad de TikTok.
“Esto es realmente importante para nuestra comunidad porque la autenticidad es realmente uno de los elementos que ha hecho de TikTok una comunidad tan vibrante y alegre. . . Quieren poder comprender qué ha sido creado por un ser humano y qué se ha mejorado o generado con IA”.
Las plataformas de redes sociales, incluidas TikTok, Meta, X y YouTube, han estado explorando formas de integrar la IA generativa en sus plataformas, a través de chatbots y nuevas herramientas que ayudan a personas influyentes y anunciantes a crear medios. Sin embargo, las plataformas han sido criticadas por permitir que los usuarios se vean inundados con contenido spam de baja calidad generado por IA.
En un año de elecciones importantes en todo el mundo, estas empresas también enfrentan presión para introducir barreras de seguridad contra los deepfakes engañosos, frenar las operaciones de influencia encubierta y garantizar que moderen adecuadamente el contenido sin dejar de ser partidistas.
A principios de esta semana, TikTok y su matriz ByteDance presentaron una demanda contra el gobierno de EE. UU., impugnando una ley diseñada para forzar la venta o prohibición de la aplicación. Los legisladores habían expresado su preocupación de que la plataforma pudiera impulsar la desinformación y la propaganda.
El jueves, TikTok dijo que se uniría a una coalición de grupos de tecnología y medios, liderados por Adobe, que incorporan las llamadas credenciales de contenido en productos generados por IA.
Esta tecnología incorpora una huella digital en el contenido multimedia de IA, junto con otra información de identificación, como cuándo, dónde y quién generó el material. TikTok utilizará estos indicadores para señalar automáticamente cuando el contenido se cree con productos de inteligencia artificial.
OpenAI anunció el martes que se uniría a la coalición, conocida como Iniciativa de Autenticidad de Contenido, e integraría la tecnología de huellas dactilares en todas las imágenes generadas por su modelo de imagen Dall-E 3. Con el tiempo, dijo el fabricante de ChatGPT, también las integraría en su modelo de generación de vídeo Sora, cuando se lance ampliamente.
Recomendado
Grandes empresas de tecnología, incluidas Google, Microsoft y Sony, están explorando la posibilidad de incorporar la tecnología en sus herramientas de inteligencia artificial.
Meta dijo a principios de este mes que comenzaría a estampar el contenido generado por IA con una etiqueta «Hecho por IA» detectando marcadores invisibles insertados por grupos como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. El propietario de Facebook también dijo que estaba desarrollando clasificadores de detección de deepfake.
Los expertos han argumentado que los malos actores o los grupos sofisticados de desinformación probablemente usarían herramientas de generación de inteligencia artificial de código abierto para crear deepfakes, lo que los haría más difíciles de rastrear y no ser identificados mediante huellas digitales y marcas de agua.
Las empresas tecnológicas sostienen que sus esfuerzos representaron el primer paso para abordar el problema.
Dana Rao, asesor general y director de confianza de Adobe, dijo: «La premisa de esta solución es que si desea ser transparente y tener una conversación auténtica y transparente con su público, esta herramienta le permitirá hacerlo en un mundo donde todo Lo digital se puede manipular”.