La inteligencia artificial requiere una regulación cuidadosamente considerada para garantizar que las tecnologías equilibren la cooperación y la competencia por un bien mayor, según los oradores expertos en la Cumbre AI 2020.
Como tecnología de propósito general, la inteligencia artificial (IA) se puede utilizar en una asombrosa variedad de contextos, y muchos defensores enmarcan su rápido desarrollo como un esfuerzo cooperativo en beneficio de toda la humanidad.
Las Naciones Unidas, por ejemplo, lanzó su Iniciativa AI for Good en 2017, mientras que francés y chino Los gobiernos hablan de “IA para la humanidad” e “IA en beneficio de la humanidad” respectivamente, retórica que muchos otros gobiernos y organismos supranacionales repiten en todo el mundo.
Por otro lado, estos mismos defensores también utilizan un lenguaje y una retórica que enfatiza las ventajas competitivas que la IA podría aportar en la búsqueda más estrecha del interés nacional.
“Al igual que en la política internacional, existe una tensión entre la aspiración acordada de construir IA para la humanidad y el bien común, y el impulso más egoísta y estrecho de competir para tener ventaja”, dijo Allan Dafoe, director del Centro para la Gobernanza de la IA en la Universidad de Oxford, hablando en la Cumbre de IA, que tuvo lugar en línea esta semana.
Hablando sobre si la IA puede empoderar a las organizaciones no gubernamentales (ONG) y beneficiar el bien social, Stijn Broecke, economista senior de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), agregó que la ferocidad de la competencia en la IA podría conducir a un “ futuro muy desigual ”.
“Uno de los grandes riesgos de la IA es que conduce a una dinámica en la que el ganador se lo lleva todo en la competencia, donde algunas empresas son capaces de desarrollar las tecnologías mucho más rápido que otras”, dijo. “Tienen acceso a los datos, pueden invertir en las herramientas y, al final, conduce a una mayor concentración en el mercado laboral. Esta concentración en el mercado laboral tiene el potencial de tener enormes consecuencias negativas en términos de desigualdad, reducción del número de puestos de trabajo, reducción de la calidad de los trabajos y reducción de las condiciones de trabajo remuneradas ”.
Desarrollo e implementación desigual
Broecke agregó que los países de la OCDE ya están experimentando fuertes aumentos en la desigualdad, así como una polarización simultánea de sus mercados laborales, algo que solo se verá agravado por el desarrollo desigual y el despliegue de tecnologías de inteligencia artificial.
“La evidencia emergente sobre la IA también muestra que las personas que más se benefician son las personas altamente calificadas porque la IA las complementa, por lo que sus salarios aumentan y, por lo tanto, conduce a un aumento de la desigualdad en el mercado laboral”, dijo.
Para romper estas dinámicas y prevenir una mayor propagación del “tecno-nacionalismo”, Dafoe cree que debemos definir colectivamente cómo es la gobernanza responsable de las tecnologías de IA.
«Desafortunadamente, ser un actor responsable no será fácil porque la gobernanza de la IA no es fácil», dijo. «La IA es una tecnología de propósito general, y las tecnologías de propósito general tienen un conjunto de propiedades que las hacen difíciles de gobernar y lograr ciertos objetivos sin otras consecuencias de subproductos».
Añadió que «las consecuencias sociales y de otro tipo de la IA tienden a cambiar rápidamente y ser dinámicas, lo que dificulta que los responsables de la formulación de políticas diseñen una solución única que funcione de manera continua».
Adoptar compromisos significativos y una regulación ‘prosocial’
Para Dafoe, la solución es crear las condiciones para una «carrera de IA hacia la cima», mediante la cual los incentivos existentes, como la competencia, se utilizan de una manera que «conduce a un comportamiento más prosocial que antisocial».
“En lugar de simplemente hablar sobre la responsabilidad en un sentido abstracto, que sería fácil de captar por la retórica de las relaciones públicas o el marketing, queremos que realmente muerda: tener compromisos significativos que se relacionen directamente con los comportamientos que tienen más probabilidades de conducir a beneficiosos resultados ”, dijo. «No queremos simplemente imponer un comportamiento costoso, queremos un comportamiento que es lo que la sociedad necesita, de modo que la IA se implemente para lograr los máximos beneficios y minimizar los riesgos».
Este enfoque en el desarrollo de «compromisos significativos» fue repetido por varios otros oradores en la Cumbre de IA, incluido el abogado de igualdad y fundador de AI Law Hub Dee Masters, quien habló de la necesidad de que las empresas adopten una regulación que fomente un comportamiento más responsable.
“Creo que ha existido esta idea tradicional de que a las empresas no les gusta la regulación, a las empresas no les gusta la burocracia, no les gusta que les digan qué hacer, pero en realidad esta es un área en la que creo que tenemos que ir más allá ética endeble [statements]y tenemos que ser muy claros sobre lo que las empresas pueden y no pueden hacer ”, dijo.
“Necesitamos reglas legales muy claras, reglas legales inequívocas, pero también necesitamos reglas que puedan ser creativas en el sentido de que fomenten el buen comportamiento. Bajo la Ley de Igualdad, por ejemplo, un empleador será responsable indirectamente por un empleado, pero un empleador puede evitarlo demostrando que tomó todas las medidas razonables para detener la discriminación. [By] utilizando ese tipo de modelos realmente interesantes que fomentan el comportamiento responsable, creo que podemos hacerlo y creo que solo tenemos que adoptar la regulación en lugar de fingir que es mala para los negocios «.
Agregó que los marcos legales existentes como la Ley de Igualdad ya están “en un 95%” y solo necesitarían algunas modificaciones menores para hacerlo más adecuado, ya que “nadie pensaba en la IA, la toma de decisiones automatizada y los algoritmos cuando se redactó”.
Un beneficio adicional de tener reglas claras que rijan el uso de la IA es que evita la necesidad de litigios costosos y prolongados en el futuro, por ejemplo, contra empresas de tecnología que piensan que los marcos legales actuales no influyen en sus operaciones de IA. “No creo que el litigio sea una buena forma de generar cambios, ya que es después del evento, requiere personas con recursos suficientes para llevar los asuntos ante los tribunales, [and] No creo que podamos esperar que nuestros ciudadanos controlen la gran tecnología ”, dijo Masters.
Jessica Lennard, directora senior de iniciativas de inteligencia artificial y datos globales de Visa, agregó que, al trabajar para una empresa que opera en 200 países, la divergencia regulatoria es un problema enorme, ya que crea un mosaico inconsistente de reglas que deben seguir las empresas.
«Queremos ver altos estándares de protección al consumidor y la mayor alineación regulatoria a nivel mundial, pero lo que de hecho estamos viendo son algunas áreas de divergencia en todo el mundo que nos preocupan», dijo: «Una de ellas es la ética, la privacidad es otro, el intercambio de datos es un tercero y, al final del día, esto realmente tiene el potencial de socavar las protecciones del consumidor y poner en peligro los flujos de datos transfronterizos que realmente necesita para construir una buena IA «.
“Creo que uno de los temas más importantes sobre los que queremos claridad, que no es nada fácil de aplicar en la práctica, es dónde reside la responsabilidad y para qué”, agregó Lennard.
“Quiere que todos hablen el mismo idioma, especialmente las personas técnicas y no técnicas que participan en diferentes partes del proceso, quiere que todos tengan claro el proceso en sí, la gobernanza, la ley que lo respalda , y eso no es tan fácil de hacer «.
Según Charles Radclyffe, especialista en ética y gobernanza de inteligencia artificial de Fidelity International, si bien el diluvio de principios éticos que han lanzado las empresas en los últimos años es un paso prometedor, muchos están demasiado alejados de la realidad práctica para ser útiles.
“Lo que se necesita es algún nivel de gobernanza sustantiva, y la gobernanza sustantiva que necesita será algo que realmente lo dirija hacia la respuesta correcta la mayoría de las veces”, dijo.
“Lo que necesitas es su dirección, lo que necesitas es claridad y certeza. A esto lo llamo «pronunciamientos»: necesita una guía clara en términos de qué debe hacer en esta situación, o qué no debe hacer en esa situación, y es ese tipo de gobernanza lo que se requiere «.