La esencia
- Vacío reglamentario. No existen regulaciones federales integrales de privacidad de datos o inteligencia artificial en los EE. UU.
- Apoyo del director ejecutivo. Los directores ejecutivos de tecnología abogan por la intervención del gobierno federal en la regulación de la IA.
- liderazgo de la UE. La UE toma la delantera en la regulación de la IA, estableciendo estándares globales potenciales.
Uno podría pensar que, con la interminable variedad de filtraciones de datos debido a políticas de seguridad y gobierno corporativo deficientes, el gobierno federal de los EE. UU. querría garantizar la continuación sin problemas de los negocios mediante la regulación de la privacidad y la seguridad de los datos a nivel federal. Bueno, uno estaría equivocado.
De hecho, por lo que cualquiera puede decir, no existen tales planes, ni siquiera discusiones serias, sobre la regulación de privacidad de datos equivalente al Reglamento General de Protección de Datos (GDPR) de la UE a nivel federal/nacional de EE. UU. Si bien es posible que a las empresas no les gusten las regulaciones desde el principio y las combatan con uñas y dientes, la realidad es que son necesarias para garantizar la confianza, un mercado comercial estable y una relación continua entre la marca y el consumidor. Sabiendo que el gobierno federal de los EE. UU. dejó caer la pelota (en realidad, ni siquiera la recogieron) sobre la privacidad y la seguridad de los datos, puede que no parezca sorprendente que todavía tengan que hacer una regulación sustantiva sobre inteligencia artificial (IA).
Esto ha llevado a una reacción extraordinaria en la que los propios directores ejecutivos de las empresas de tecnología exigen que el gobierno de los EE. UU. dé un paso al frente y, Dios no lo quiera, haga su trabajo y defina e implemente estándares y regulaciones en torno a la IA y el contenido generado por la IA. ¿No sería una idea novedosa? Que el gobierno es responsable de probar el marco regulatorio necesario para la implementación segura y útil de la tecnología de IA.
Cosas locas, lo sé. Bueno, puede estar sucediendo, o puede ser solo un poco de relaciones públicas y chivos expiatorios, solo el tiempo lo dirá. Entonces, averigüemos dónde estamos ahora y qué se propone para la regulación de la IA en el futuro.
La audiencia del subcomité del Senado sobre IA
Una audiencia de tres horas de duración del Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley habló sobre los riesgos de la IA generativa, el efecto que podría tener en los trabajos y el empleo, y qué regulaciones gubernamentales serían necesarias. Se supone que esta audiencia es el comienzo de una serie que determinará qué regulaciones, si las hay, se necesitan en torno a la IA para abordar las preocupaciones legales, éticas y de seguridad.
La audiencia comenzó con una grabación del senador Richard Blumenthal de Connecticut, que de hecho era una grabación de audio falsa generada por IA para sonar como él.
“Con demasiada frecuencia hemos visto lo que sucede cuando la tecnología supera la regulación. La explotación desenfrenada de los datos personales, la proliferación de la desinformación y la profundización de las desigualdades sociales. Hemos visto cómo los sesgos algorítmicos pueden perpetuar la discriminación y los prejuicios y cómo la falta de transparencia puede socavar la confianza pública. Este no es el futuro que queremos”, dijo la voz de IA.
En lo que, con suerte, promete ser una posición más pública de los directores ejecutivos de tecnología sobre la responsabilidad del gobierno en el crecimiento y desarrollo de la tecnología, el director ejecutivo de OpenAI, Sam Altman, dijo a los miembros de la audiencia del subcomité del Senado que se requeriría la intervención del gobierno para mitigar los riesgos potenciales de la tecnología de IA.
“A medida que avanza esta tecnología, entendemos que las personas están ansiosas acerca de cómo podría cambiar la forma en que vivimos. Nosotros también”, dijo Altman. “Mis peores temores son que nosotros, el campo, la tecnología, la industria, causemos un daño significativo al mundo. Creo que si esta tecnología sale mal, puede salir bastante mal”.
Y tiene claro que la industria no puede autorregularse sola, sino que debe confiar en la regulación del gobierno federal para garantizar que el sector crezca y se expanda de manera responsable.
“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, dijo Altman.
También testificaron en las audiencias Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, y Gary Marcus, profesor emérito de la Universidad de Nueva York.
Montgomery le dijo al Congreso que necesita “adoptar un enfoque de regulación de precisión para la IA. Esto significa establecer las reglas para regir el despliegue de la IA en casos de uso específicos, sin regular la tecnología en sí”.
Interesante, pero difícilmente suena lo suficientemente sólido e inclusivo como para proteger a los consumidores. Sin embargo, tal vez lo suficiente para proteger las ganancias corporativas.
El profesor Marcus le dijo al subcomité que debería considerar una nueva agencia federal que revisaría los programas de IA antes de que se publiquen.
“Hay más genios por venir de más botellas”, dijo. “Si vas a presentar algo a 100 millones de personas, alguien tiene que tener los ojos puestos en ello”.
Así que supervisión. Tiene sentido, aunque no mucho en cuanto a detalles.
Artículo relacionado: Master Ethical AI: Proporcione experiencias personalizadas de comercio electrónico mientras protege la privacidad
El impacto inminente de la IA en los trabajos
Todos están de acuerdo en que la IA tendrá un impacto en los trabajos, y en muchos de ellos. Pero aún está por determinar cómo se verá eso y qué trabajos creará la IA.
“Habrá un impacto en los empleos”, dijo el director ejecutivo Altman. “Tratamos de ser muy claros al respecto, y creo que requerirá una asociación entre la industria y el gobierno, pero principalmente la acción del gobierno, para descubrir cómo queremos mitigar eso. Pero soy muy optimista acerca de cuán grandiosos serán los trabajos del futuro”, agregó.
El vicepresidente de IBM, Montgomery, dijo que «lo más importante que debemos hacer es preparar a la fuerza laboral para las habilidades relacionadas con la IA» a través de la capacitación y la educación.
Pero la realidad es que todos los trabajos, no solo los escritores de Hollywood, se verán afectados por la IA. Incluso los directores ejecutivos corporativos pueden ser reemplazados fácilmente por IA. Nadie es inmune a su influencia.
Artículo relacionado: Las implicaciones legales de la IA generativa
La UE lidera el camino con una normativa histórica sobre IA
Como ha demostrado la historia, los europeos parecen estar a la vanguardia de la regulación tecnológica, mientras que EE. UU. se está quedando atrás, quizás a propósito. Estados Unidos parece más interesado en proteger los derechos de las empresas con fines lucrativos que los derechos de sus ciudadanos a ser protegidos de posibles amenazas.
Recientemente, los legisladores del Parlamento Europeo aprobaron un borrador de la Ley de IA de la UE. Esta es la primera ley sobre IA de un regulador importante en cualquier parte del mundo. La ley asigna las aplicaciones de IA a tres categorías principales de riesgo. En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la calificación social administrada por el gobierno del tipo que se usa en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular.
Al igual que con el RGPD, es posible que la Ley de IA de la UE se convierta en el estándar mundial en el que se basan otros esfuerzos regulatorios.
¿Pero es esto suficiente? Como mínimo, parece que las personas tienen derecho a saber si el material que consumen está creado o asistido por IA. A fines del siglo XIX, una amplia gama de sustancias peligrosas de charlatanería inundó el mercado. Estos productos contenían sustancias como morfina, cocaína y varias otras drogas adictivas, alegando sus propiedades curativas milagrosas.
Cuando Estados Unidos reguló esta industria al obligar a los fabricantes a enumerar sus ingredientes en la etiqueta, la gente dejó de comprar los brebajes adictivos. Solo el simple acto de etiquetar y ser transparente puede generar grandes comportamientos públicos beneficiosos.
Esto es lo que necesita la industria de la IA, transparencia. La gente en general no confía en la IA, y generar confianza es el primer paso. Y para ser honesto, no estoy seguro de que sea siquiera un tema real de discusión durante estas audiencias.
Impresionante cambio de regulación de IA de OpenAI
Después de escribir esta historia, el CEO de OpenAI, Altman, salió y dejó más clara su posición sobre la regulación de la IA. Resulta que, después de todo, su discurso ante el Congreso pudo haber sido una buena campaña de relaciones públicas, ya que una vez que se enfrentó a la regulación real de la IA de la UE, se opuso mucho a cierto tipo de regulación que podría afectar su modelo de negocio.
De hecho, Sam Altman le dijo a Time que su empresa podría dejar de operar en la UE si tuviera que cumplir con la Ley de IA de la UE. Lo intentarían, pero no están seguros de poder hacerlo. Según el lenguaje de la Ley, el chatbot generativo de IA de OpenAI, ChatGPT, podría designarse como una solución de IA de alto riesgo.
“Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible”, dijo.
Aprende cómo puedes unirte a nuestra comunidad de colaboradores.
Continuar leyendo: La batalla inminente por la regulación de la IA