Las empresas líderes en inteligencia artificial (IA) tienen el deber «moral» de proteger a la sociedad de los peligros potenciales de esta tecnología, dijo la vicepresidenta Kamala Harris a los ejecutivos de Google, Microsoft, OpenAi y Anthropic el jueves.
«El sector privado tiene el deber ético, moral y legal de garantizar la seguridad de sus productos», dijo Harris en un comunicado tras reunirse con Satya Nadella (microsoft), Sundar Pichai (Google), Sam Altman (IA abierta) y Darío Amodei (antrópico) y varios miembros del gobierno.
Harris señaló que la IA tiene el «potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad», pero también podría «aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad, y socavar la confianza pública en la democracia«.
Dijo que apoya, junto con el presidente Joe Biden, quien apresuró la reunión, «nuevas regulaciones potenciales» y «nueva legislación».
La inteligencia artificial lleva años presente en el día a día, desde las redes sociales hasta electrodomésticos de alta gama y programas de selección de personal.
Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de inteligencia artificial generativa de OpenAI, una empresa emergente fuertemente financiada por Microsoft, fue el punto de partida de una carrera hacia sistemas cada vez más intuitivos y eficientes que son capaces de generar textos, imágenes y códigos de programación cada vez más complejos.
«Es bueno intentar anticiparse (a la regulación). No va a ser fácil, pero creo que podemos llegar allí», dijo Harris a los periodistas antes de ingresar a la Casa Blanca.
OpenAI, el detonante
Su lanzamiento despertó entusiasmo e inquietudes en una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticipó la próxima generación de la llamada IA »general», donde los programas serán «más inteligente que los humanos en general».
Los riesgos de la IA van desde la discriminación hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros.
A finales de 2022, la Casa Blanca publicó un «Plan para una declaración de derechos de la IA«, un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falibles.
A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un «marco de gestión de riesgos» relacionado con la IA.
El presidente Biden dijo el mes pasado que estas empresas «claramente… deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general», dice la invitación.
Sin embargo, «estas pautas y declaraciones no obligan a las empresas afectadas a hacer nada», dijo David Harris, quien fue director de investigación de IA en Meta.
«Los patrones mismos Piden más regulaciones“, remarcó, aunque Facebook, a pesar de haber “llamado públicamente” a mejorar las leyes que rigen la confidencialidad de los datos personales, “al mismo tiempo paga lobbies que combaten estos proyectos de ley”.
La Casa Blanca anunció el jueves nuevas inversiones en investigación de IA y nuevos métodos para evaluar los sistemas actuales.
Los gigantes de la IA no niegan que existan riesgos, pero temen que se asfixie innovación debido a leyes demasiado restrictivas.
«IA será utilizada por actores maliciosos, y sí, causará dañosEl economista jefe de Microsoft, Michael Schwarz, dijo durante un panel en el Foro Económico Mundial el miércoles, según Bloomberg.
Pero instó a los legisladores a no apresurarse y cuando haya un «daño real» a asegurarse de que «los beneficios de la regulación superen el precio para la sociedad».
«La última vez que enfrentamos tal agitación social debido a las tecnologías fue al comienzo de la Web 2.0, allá por 2002», dijo el miércoles Lina Khan, presidenta de la Comisión Federal de Comercio, la agencia de protección al consumidor de Estados Unidos. .
Al otro lado del Atlántico, Europa espera liderar nuevamente el camino hacia la regulación ad-hoc en torno a la IA, como ya lo hizo con la ley de datos personales.
«No es una carrera. Estamos trabajando junto con nuestros colegas europeos.«, dijo un alto funcionario de la Casa Blanca.