Operai está completamente en su batalla por usar archivos de derechos de autor para entrenar su IA en los Estados Unidos y quejas de falta de privacidad en Europa. La compañía de Sam Altman enfrenta una nueva controversia, su chatbot ha comenzado a difundir información falsa de los usuarios.
ChatGPT no se deshace de las famosas alucinaciones de la IA. El chatbot de OpenAi Ha inventado que un hombre de Noruega había sido condenado por matar a dos de sus hijos e intentar matar al tercero. La Agencia de Defensa de los Derechos de Privacidad Noyb ha apoyado a la víctima.
La historia no se ha tomado para darse a conocer en la ciudad de Arve Hjalmar Holmen. El protagonista de los hechos ha denunciado a Chatgpt por difamación. El chatbot incluso inventó que el hombre fue sentenciado a 21 años de prisión por los actos cometidos, todo era falso.
La noticia de que Hjalmar Holmen es un asesino es completamente falso, pero Noyb señala que La respuesta de Chatbot tiene algunas verdades, es cierto que tiene tres hijos, el género de los hijos es correcto y el nombre de su ciudad.
Un portavoz de Noyb dice en un comunicado en su sitio web que no pueden determinar por qué ChatGPT generó una historia tan específica del protagonista de los hechos. El equipo de investigadores incluso verificó que no era una confusión con otra persona consultando archivos periodísticos.
ChatGPT infringe las regulaciones de protección de datos de la UE
Los modelos de idiomas grandes como ChatGPT realizan predicciones de palabras clave para buscar más tarde en enormes conjuntos de datos utilizados para entrenar la herramienta. A pesar de ser una predicción, el resultado es inaceptable.
Noyb explicó que Openai no cumple con los estándares de protección de datos de la Unión Europea. Chatgpt muestra una pequeña advertencia en la parte inferior de la pantalla en la que se asegura de que pueda cometer errores. Esto no exime al desarrollador de IA, de acuerdo con el Reglamento General de Protección de Datos (RGPD).
ChatGPT generalmente comete fallas en información personal, como fechas de nacimiento o datos biográficos, pero el chatbot ha cruzado los límites con el caso de Noruega. Los usuarios dicen que OpenAI no les permite corregir la información incorrecta que la IA genera en ellos, solo pueden pedir que las respuestas a esas solicitudes se bloqueen.
El RGPD de la Unión Europea establece que Los usuarios deben tener acceso a sus datos administrados por este tipo de herramientasIncluso tienen derecho a rectificar su información si la consideran mal.
«El GDPR es claro. Los datos personales deben ser precisos. Si no, los usuarios tienen derecho a modificarlos para reflejar la verdad. Muestre a los usuarios de ChatGPT una pequeña advertencia de que el chatbot puede cometer errores no es suficiente. La información no puede difundirse y agregar un aviso que indique que todo lo que se ha dicho puede ser falso», según Joakim Söderberg, abogado de la protección de datos de NYB.
Saber Cómo trabajamos en Informática.
Etiquetas: Inteligencia artificial
Con información de Telam, Reuters y AP








