Arjun Narayan ha concedido una interesantísima entrevista a Gizmodo en la que ha expuesto los grandes peligros a los que se enfrenta actualmente el periodismo y la sociedad debido al ‘boom’ de la IA: la generación de las fake news o ‘fake news’.
ChatGPT es para todos una herramienta nueva y poderosa que tiene el potencial de hacer mucho bien en casi todas las industrias, pero también tiene sus desventajas. Entre ellos, herramientas inteligencia artificial así podrán producir, de forma casi ilimitada, todo tipo de opiniones sobre cualquier tema que les preguntes.
El problema de fondo es que esta información, que a menudo se ha demostrado que es inexacta, también es podría tener consecuencias peligrosas para la propagación de noticias falsas o noticias falsas en línea.
Por supuesto, este no es solo un texto con información falsa y la desinformación puede tener consecuencias muy graves, como influir en la opinión pública. Con la capacidad de generar grandes cantidades de texto de forma rápida y muy convincente, se pueden utilizar herramientas de IA generativa como ChatGPT. difundir noticias falsas a gran escala.
y aquí es donde El exjefe del departamento de seguridad de Google, Arjun Narayan, quiso centrarse en una entrevista reciente con gizmodo. Discutieron la complejidad del momento actual, cómo las organizaciones de noticias deben abordar el contenido de IA de una manera que pueda generar y nutrir la confianza de los lectores, y qué esperar en el futuro cercano.
«Es importante ser transparente para el usuario de que este contenido fue generado por IA»
«Uno de los grandes desafíos se centra en asegurarse de que los sistemas de IA se entrenen correctamente y se entrenen con la realidad básica correcta. Es extremadamente importante calibrar y curar cuidadosamente cualquier punto de datos que ingrese para entrenar el sistema de IA».Explicar.
En una palabra, ChatGPT se basa en un modelo que responde en base a probabilidades. Por ejemplo, si pregunta en qué día de la semana se encuentra, es más probable una respuesta que incluya de lunes a viernes que un día del mes, aunque esto no significa que responderá correctamente el día en que se encuentra.
Teniendo esto en cuenta, en la explicación de un concepto que le solicites a este chatbot, construirá una respuesta, palabra por palabra, con probabilidades y, por lo tanto, esto puede ser engañoso. Si esto se usa para escribir noticias, hay un gran problema.
«Es importante comprender que puede ser difícil detectar qué historias están escritas en su totalidad por IA y cuáles no, pero esa distinción se está desvaneciendo». Narayan explica.
«Personalmente, creo que no hay nada de malo en que la IA genere un artículo, pero es importante ser transparente para el usuario de que este contenido fue generado por la IA. Es importante para nosotros indicar, ya sea en un pie de autor o en una divulgación, que el contenido fue generado en su totalidad o en parte por AI. Siempre que cumpla con su estándar de calidad o estándar editorial, ¿por qué no?», Agregar.
«Necesitamos más personas que piensen en estos pasos y que les den el espacio de cabeza dedicado para mitigar los riesgos. De lo contrario, la sociedad tal como la conocemos, el mundo libre tal como lo conocemos, corre un riesgo considerable. Sinceramente, creo que debería haber más inversión en confianza y seguridad»termina
Con información de Telam, Reuters y AP