Con una nueva etiqueta, la red social quiere que los usuarios sepan cuándo un contenido es real y cuándo artificial.
Debido a la exageración en torno a las inteligencias artificiales generativas, como Midjourney o DALL-E 2, siempre hay dudas sobre la veracidad de las imágenes. El límite entre lo real y lo artificial está entre las principales preocupaciones.
Meta parece haber tomado nota de las demandas de sus usuarios y así comenzó a identificar adecuadamente el contenido. Según un conocido filtrador, a partir de ahora, Instagram avisará si la imagen publicada es creada o no por una IA gracias a una nueva etiqueta.
Tal como lo compartió el usuario de Twitter Alessandro Paluzzi, Instagram comenzó a dar avisos a los usuarios para que sepan cuando un contenido es real o de origen humanoen lugar de contenido creado por una IA generativa.
De esta forma, los usuarios de la red social podrán saber con total certeza cuando un contenido ha sido creado de forma automática, o tiene detrás mano de obra humana. Meta puede detectarlo de forma nativa, pero el propio creador puede marcar voluntariamente su contenido como generado por IA.
Polémica por el papel de la IA en las redes sociales
El contenido generado por estos sistemas son bastante controvertidos entre la comunidad. La primera razón, porque dibuja una línea borrosa entre lo que la gente realmente puede hacer y lo que realmente puede hacer un robot.
El segundo de ellos, por el conflicto que implica que una IA se alimenta de aprendizaje en Internet sin permiso. Y el tercero de ellos, la competencia desleal que en líneas generales supone que los humanos compiten a nivel laboral contra IA’s que violan las normas de privacidad y derechos de autor.
Como se mencionó, hay muchos lagunas en torno a la Inteligencia Artificial Generativa.
Con multitud de herramientas que generan imágenes, bots que generan textos como ChatGPT, más los múltiples desarrollos de decenas de empresas que buscan su pan comido en el sector, en muchos lugares ya trabajan contrarreloj para preparar un regulación en este ámbito.
Tanto en América Latina como en la Unión Europea, por ejemplo, todavía no hay una regulación específicapero en países como Italia, hace unos meses, optaron por restringir el uso de ChatGPT debido a las dudas que existían en torno a las políticas de protección de datos de Open AI, que no cumplirían con los estándares europeos.
Por otro lado, el Ministerio de Educación de Japón publicó una actualización de sus pautas escolares el martes en la que aceptó limitar el uso de inteligencias artificiales generativas (IA) como ChatGPT entre los estudiantes.
Las directrices hacen especial hincapié en la cautela en el uso de la IA por parte de los alumnos de primaria e instan a considerar como plagio intentar hacer un trabajo hecho con la ayuda de la inteligencia artificial como propio.
Entre las prácticas impropias que deben ser consideradas improcedentes en los centros educativos, se hace mención a usar inteligencia artificial durante los exámenes u otras evaluacionesmientras que su uso para clases de conversación en idiomas extranjeros se ve como una buena opción, entre otros ejemplos.
Con información de La Vanguardia.