OpenAI dice que podría ‘dejar de operar’ en la UE si no puede cumplir con la futura regulación

El CEO de OpenAI, Sam Altman, advirtió que la compañía podría retirar sus servicios del mercado europeo en respuesta a la regulación de IA que está desarrollando la UE.

Hablando con los periodistas después de una charla en Londres, Altman dijo que tenía «muchas preocupaciones» sobre la Ley de IA de la UE, que los legisladores están finalizando actualmente. Los términos de la Ley se han ampliado en los últimos meses para incluir nuevas obligaciones para los fabricantes de los llamados «modelos básicos»: sistemas de inteligencia artificial a gran escala que impulsan servicios como ChatGPT y DALL-E de OpenAI.

“Los detalles realmente importan”, dijo Altman, según un informe de el tiempo financiero. “Intentaremos cumplir, pero si no podemos cumplir, dejaremos de operar”.

En comentarios reportados por Tiempo, Altman dijo que la preocupación era que los sistemas como ChatGPT serían designados como de «alto riesgo» según la legislación de la UE. Esto significa que OpenAI tendría que cumplir una serie de requisitos de seguridad y transparencia. “Seremos capaces de resolver esos requisitos o no”, dijo Altman. “[T]aquí hay límites técnicos a lo que es posible”.

Además de los desafíos técnicos, las divulgaciones requeridas por la Ley de IA de la UE también presentan posibles amenazas comerciales para OpenAI. Una disposición en el borrador actual requiere que los creadores de modelos básicos divulguen detalles sobre el diseño de su sistema (incluyendo «la potencia de cómputo requerida, el tiempo de capacitación y otra información relevante relacionada con el tamaño y la potencia del modelo») y proporcionen «resúmenes de los datos protegidos por derechos de autor». utilizado para el entrenamiento.”

OpenAI solía compartir este tipo de información, pero dejó de hacerlo porque sus herramientas se volvieron cada vez más valiosas comercialmente. En marzo, el cofundador de Open AI, Ilya Sutskever, dijo el borde que la empresa se había equivocado al revelar tanto en el pasado, y que era necesario mantener en secreto información como los métodos de entrenamiento y las fuentes de datos para evitar que sus rivales copiaran su trabajo.

Además de la posible amenaza comercial, obligar a OpenAI a identificar su uso de datos protegidos por derechos de autor expondría a la empresa a posibles demandas. Los sistemas de IA generativa como ChatGPT y DALL-E se entrenan utilizando grandes cantidades de datos extraídos de la web, gran parte de los cuales están protegidos por derechos de autor. Cuando las empresas divulgan estas fuentes de datos, quedan expuestas a desafíos legales. El rival de OpenAI, Stability AI, por ejemplo, está siendo demandado actualmente por el creador de imágenes de archivo Getty Images por usar sus datos protegidos por derechos de autor para entrenar su generador de imágenes de IA.

Los comentarios recientes de Altman ayudan a completar una imagen más matizada del deseo de regulación de la empresa. Altman les ha dicho a los políticos estadounidenses que la regulación debería aplicarse principalmente a los futuros sistemas de inteligencia artificial más potentes. Por el contrario, la Ley de IA de la UE se centra mucho más en las capacidades actuales del software de IA.

Salir de la versión móvil