Se presentó en el Senado un nuevo proyecto de ley que busca rastrear los problemas de seguridad al ordenar la creación de una base de datos que registre todas las violaciones de los sistemas de inteligencia artificial.
La Ley de Inteligencia Artificial Segura, presentada por los senadores Mark Warner (D-VA) y Thom Tillis (R-NC), establecería un Centro de Seguridad de Inteligencia Artificial en la Agencia de Seguridad Nacional. Este centro lideraría la investigación sobre lo que el proyecto de ley llama “contra-IA”, o técnicas para aprender a manipular sistemas de IA. Este centro también desarrollaría directrices para prevenir medidas contra la IA.
El proyecto de ley también requerirá que el Instituto Nacional de Estándares y Tecnología (NIST) y la Agencia de Seguridad de Infraestructura y Ciberseguridad creen una base de datos de violaciones de IA, incluidas las “casi accidentes”.
El proyecto de ley propuesto por Warner y Tillis se centra en técnicas para contrarrestar la IA y las clasifica como envenenamiento de datos, ataques de evasión, ataques basados en la privacidad y ataques de abuso. El envenenamiento de datos se refiere a un método en el que se inserta código en los datos extraídos por un modelo de IA, corrompiendo la salida del modelo. Surgió como un método popular para evitar que los generadores de imágenes de IA copien arte en Internet. Los ataques de evasión cambian los datos estudiados por los modelos de IA hasta el punto de que el modelo se confunde.
La seguridad de la IA fue uno de los elementos clave de la orden ejecutiva de IA de la administración Biden, que ordenó al NIST que estableciera pautas de «equipo rojo» y requirió que los desarrolladores de IA presentaran informes de seguridad. El equipo rojo se produce cuando los desarrolladores intentan intencionalmente que los modelos de IA respondan a indicaciones que no deberían.
Idealmente, los desarrolladores de potentes modelos de IA prueban la seguridad de las plataformas y las someten a un extenso equipo rojo antes de lanzarlas al público. Algunas empresas, como Microsoft, han creado herramientas para facilitar la adición de barreras de seguridad a los proyectos de IA.
La Ley de Inteligencia Artificial Segura tendrá que pasar por un comité antes de que pueda ser aprobada por el Senado en general.