La aplicación de inteligencia artificial fue prohibida desde el 31 de marzo.
Italia permitió hoy la reactivación de la herramienta de Inteligencia Artificial ChatGPT, un mes después de bloquearla, como ha prometido la plataforma «más transparencia y más derechos para los usuarios y no usuarios europeos».
El Garante italiano para la Protección de Datos Personales informó hoy que la empresa estadounidense OpenAI, que administra ChatGPT, ha anunciado en un comunicado nuevas medidas para respetar la privacidad de los usuarios de Internet.
El 31 de marzo, las autoridades italianas ordenaron el bloqueo «con efecto inmediato» de esta herramienta de Inteligencia Artificial, acusándola de no respetar la ley de protección de datos del consumidor.
Una medida que se mantendría hasta ChatGPT “no respeta la disciplina de la privacidad” y el 12 de abril el Garante envió a OpenAI una serie de disposiciones.
El popular ChatGPT ha sido desarrollado por la empresa OpenIA en Estados Unidos, donde varias organizaciones lo han solicitado también su suspensión por sospechar de estos experimentos con Inteligencia Artificial.
Al bloquearlo, la organización italiana lamentó que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufriera una pérdida de datos de sus usuarios el pasado 20 de marzo. y los datos de pago de sus suscriptores.
En su disposición, el garante italiano destacó «la falta de información para los usuarios y todas las partes interesadas de las que OpenAI recopila datos» pero «sobre todo la ausencia de una base legal que justifique la recopilación y conservación masiva de datos personales».
Además, afirmó, la información que genera ChatGPT “no siempre se corresponde” con la realidad.
Por último, Italia lamentó «la ausencia de cualquier tipo de filtro» en la verificación de la edad de sus usuarios, a pesar de que el servicio es Dirigido a mayores de 13 años.
España se sienta posición
La vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital de España, Nadia Calviño, se mostró este miércoles partidaria de que la inteligencia artificial (IA) continúe su desarrollo, pero pidió que se haga en consonancia con los principios democráticos y con los debidos derechos legales y marcos institucionales.
“Creo que este es un proceso que se puede y que es una palanca de prosperidad y de crecimiento, de productividad, entonces no se va a parar, no se puede parar”, dijo Calviño durante una conferencia.a sobre tecnología organizada por el medio europeo Politico.
La vicepresidenta española ha sido preguntada si se alinea con quienes han pedido un alto en el desarrollo de aplicaciones de inteligencia artificial como ChatGPT por considerar que suponen una amenaza para las democracias.
Calviño rechazó esta posición pero advirtió que «ahora es el momento de establecer las reglas», para que esta tecnología sirva «al bien de la sociedad» y «proteja nuestros valores democráticos o valores europeos, nuestros derechos como ciudadanos, derechos individuales privados, sino también derechos colectivos”.
El objetivo es asegurar, dijo, que «los ciudadanos puedan confiar en estas nuevas tecnologías», así como las empresas, y que «podamos seguir avanzando en el desarrollo tecnológico sin poner en peligro algunos de los principios fundamentales de nuestras sociedades democráticas».
A su juicio, además, «establecer el marco legal e institucional adecuado en este momento» será «la única forma de garantizar que la IA pueda progresar» y ser «compatible con las expectativas de nuestros ciudadanos».
“Los estándares éticos no ocurren por accidente en los desarrollos tecnológicos. Tienen que ser insertados por diseño”, comentó y agregó que las empresas también están “interesadas en tener un marco claro y asegurarse de que el diseño de los algoritmos integre esos principios y valores éticos”. desde el principio para no llevarnos sorpresas desagradables más adelante”.