El desarrollo de la inteligencia artificial ha dado grandes pasos en el último año (¿sabes cómo crear imágenes con esta herramienta?), pero también ha chocado con una serie de debilidades estructural dictada por la prisa, la ambición y la codicia, quien puso esto tecnología en conflicto directo con los usuarios y los legisladores.
Ahora, sin embargo, algunos de los principales promotores de este desarrollo, Google, Microsoft, OpenAI Y antrópicohan anunciado la formación de una institución, la Foro del modelo Frontierque quiere garantizar un desarrollo seguro y responsable de modelos de aprendizaje automático a gran escala que superen las capacidades actualmente presentes en los modelos existentes más avanzados (frontier, de ahí el nombre del nuevo organismo).
En un comunicado publicado en el blog de Google, el Foro anuncia cuatro objetivos principales, que se basan en los esfuerzos de la Unión Europea, los gobiernos de EE. UU. y el Reino Unido, la OCDE y el G7 para explorar este importante tema. El primero está orientado a la seguridad de los modelos, la cual debe ser mejorada a través de evaluaciones independientes y estandarizadas que permitan promoverla. desarrollo responsable.
A continuación, la IA debe abrirse a usuarios Y cuerpos legislativos. En cuanto al primero, el organismo tiene como objetivo ayudar a las personas a comprender la naturaleza, las capacidades, las limitaciones y el impacto de la tecnología a través de la mejores prácticas para el desarrollo e implementación responsable de modelos avanzados. El Foro también reconoce la importancia de colaborar con los responsables políticos, académicos, la sociedad civil y las empresas para compartir conocimientos sobre los riesgos para la confianza y la seguridad.
Por último, la nueva asociación pretende desarrollar aplicaciones que pueden ayudar a abordar los principales desafíos sociales, como la mitigación y adaptación al cambio climático, la detección temprana y la prevención del cáncer y la lucha contra las ciberamenazas.
Prácticamente el Frontier Model Forum se centrará durante el próximo año en tres áreas clave para apoyar el desarrollo de la IA de frontera:
El Foro no será cerrado, pero está abierto a organizaciones que desarrollen modelos de frontera, demuestren un compromiso con su seguridad y estén dispuestas a participar en iniciativas conjuntas.
La buena noticia es que este foro simplemente no es una entidad abstracta con una serie de proyectos en papel, pero participará activamente en el desarrollo de estas propuestas desde el principio. De hecho, en los próximos meses, la nota de prensa anticipa que un Comite de prevencion para ayudar a guiar su estrategia y prioridades.
Las empresas fundadoras también establecerán arreglos institucionales clave, incluido uno estatuto, a gobernancia Y fondos con un grupo de trabajo y un comité ejecutivo para liderar estos esfuerzos, y declaran que están abiertos a las contribuciones de la sociedad civil y están listos para escuchar realidades como Asociación en IA Y MLCommonsque han estado debatiendo estos temas durante algún tiempo.
Sin embargo, encomiable, y en cierto modo obligado, el anuncio de la nueva entidad debe probar su buena resoluciones en el campo. De hecho, la Unión Europea está desarrollando nuevas reglas sobre IA que obligarán a cierta transparencia sobre modelos, un propósito que no es bien visto por empresas como Google y OpenAI que no quieren compartir sus secretos industriales y sobre todo se arriesgan a tener que pagar regalías por los datos con los que han entrenado a sus modelos.
En este punto, anuncios Y realidad colisionarán, y habrá que entender hasta qué punto las empresas realmente querrán una IA responsable, a costa de renunciar a las ganancias. No es que después del lavado verde vamos a ver el «Lavado de IA«?