La Casa Blanca tiene algunos consejos cuando se trata de la ética de la inteligencia artificial en su nueva «declaración de derechos».
Como parte de un esfuerzo para inspirar a las empresas a crear e implementar IA éticamente responsable y proteger los derechos públicos en la era digital, la Oficina de Política Científica y Tecnológica de EE. UU. (OSTP) publicó un conjunto de pautas el 4 de octubre. En el documento de 73 páginas , centrado en cinco principios, The Blueprint for an AI Bill of Rights pretende servir como guía para el diseño, uso e implementación de sistemas automatizados.
¿Afectará a las marcas y su capacidad para crear experiencias de marketing y clientes?
Sí, dijo Mark Levy, ex vicepresidente de experiencias digitales en Comcast y ahora editor del DCX Newsletter and Podcast y consultor de administración de CX para MaxxoMedia. La Declaración de Derechos de AI podría tener un impacto significativo en la forma en que las marcas y sus clientes interactúan entre sí, y él cree que debería
“A medida que la IA se vuelve más frecuente en nuestra vida cotidiana, debemos asegurarnos de que se use de manera ética y responsable”, dijo Levy. “Al crear un conjunto claro de pautas sobre cómo se debe usar la IA, podemos ayudar a garantizar que las empresas y los gobiernos no abusen o utilicen indebidamente esta tecnología”.
En cuanto al efecto que tendrán las pautas, Levy dijo que las marcas simplemente deberán ser más transparentes sobre cómo recopilan y usan la IA en sus productos y servicios. “Esto también significa”, agregó, “que las marcas deberán asegurarse de que sus sistemas impulsados por IA puedan explicar por qué tomaron ciertas acciones o hicieron ciertas recomendaciones. Y los clientes podrán responsabilizar a las marcas si sienten que se han violado sus derechos”.
Artículo relacionado: ¿Qué sigue para la inteligencia artificial en la experiencia del cliente?
Los cinco principios de la Declaración de derechos de AI
Si bien estas pautas no son obligatorias ni vinculantes, la Casa Blanca espera que motiven cambios organizacionales significativos relacionados con las aplicaciones internas de la IA ética.
El plan destaca cinco principios que incluyen:
- Protección contra “sistemas inseguros o ineficaces”
- Algoritmos y sistemas diseñados equitativamente que no son discriminatorios
- Protección contra «prácticas abusivas de datos a través de protecciones integradas» y «agencia sobre cómo se utilizan los datos sobre usted».
- Aviso y explicación que informa a las personas que “se está utilizando un sistema automatizado” y brinda información relacionada con “cómo y por qué contribuye a los resultados que impactan”.
- Alternativas humanas, consideración y respaldo siempre que las personas «deberían poder optar por no participar, cuando corresponda, y tener acceso a una persona que pueda considerar y solucionar rápidamente los problemas que encuentre».
“Este plan es muy necesario considerando las formas en que las empresas han utilizado tecnología como la IA para sus propios beneficios sin considerar qué valor, si lo hay, ofrecen realmente a los consumidores”, dijo Raj De Datta, fundador y director ejecutivo de Bloomreach. “Para las marcas que han utilizado IA para impulsar mejores experiencias a escala, beneficiando en última instancia a los consumidores, no creo que este modelo tenga un impacto significativo o negativo en sus esfuerzos de marketing o en la experiencia general del cliente”.
Artículo relacionado: Potenciando la experiencia del cliente a través de IA conversacional, análisis y buenos datos
¿Por qué la Declaración de Derechos de AI y por qué ahora?
En un proceso que se llevó a cabo en el transcurso de un año e incorporó paneles de discusión, reuniones, sesiones de escucha y una dirección de correo electrónico de acceso público, la OSTP buscó aportes de ciudadanos de varios sectores de comunidades en todo el país, incluidos líderes de la industria, desarrolladores, legisladores y otros expertos. sobre “la cuestión de los daños algorítmicos y basados en datos y los posibles remedios”.
El manual resultante, De los principios a la práctica, está ahora disponible como guía para aquellos que deseen poner en práctica los principios sugeridos. El plan de la Casa Blanca sigue otras pautas de IA emitidas en los últimos años por varias corporaciones, entidades gubernamentales y estados individuales.
Los Principios de IA de Google se publicaron en junio de 2018 y se actualizaron nuevamente en 2020, el mismo año en que el Departamento de Defensa (DOD) adoptó su propio conjunto de Principios éticos para la inteligencia artificial. En noviembre de 2021, la Recomendación sobre la ética de la inteligencia artificial fue adoptada en la Conferencia General de la UNESCO por 193 estados miembros.
En 2022, la Conferencia Nacional de Legislaturas Estatales señaló que al menos 17 estados introdujeron proyectos de ley o resoluciones de AI. Cuatro estados aprobaron una legislación que la promulga, incluidos Colorado, Illinois, Vermont y Washington, mientras que se encargaron grupos de trabajo para estudiar la IA en Illinois y Vermont.
¿Quién es responsable de defender la ética de la IA organizacional?
En un estudio de 1200 ejecutivos de todo el mundo en diversas industrias, el IBM Institute for Business Value descubrió que más de la mitad de las organizaciones que respondieron han respaldado públicamente los principios comunes de la ética de la IA y llaman a la IA confiable un «diferenciador estratégico» para las organizaciones.
Pero, ¿quién está a cargo de mantener la ética de la IA de una empresa? Según el 80 % de los encuestados, «un ejecutivo no técnico», principalmente el director ejecutivo, es el principal defensor de la ética de la IA en su organización, una función que solo el 15 % atribuía al director ejecutivo en 2018. Y de los directores ejecutivos encuestados, el 79 % dijo que están preparados para incorporar la ética de la IA en sus prácticas de IA, frente al 20 % en 2018.
Siguiendo al CEO, los encuestados también señalaron a otros ejecutivos de nivel C, miembros de la junta, asesores generales, oficiales de privacidad y oficiales de riesgo y cumplimiento como los más responsables de la ética de la IA.
El estudio también reveló los siguientes datos:
- Más de las tres cuartas partes de los líderes empresariales encuestados este año están de acuerdo en que la ética de la IA es importante para sus organizaciones, en comparación con aproximadamente el 50 % en 2018.
- Más de la mitad de los encuestados dicen que sus organizaciones han tomado medidas para incorporar la ética de la IA en su enfoque actual de la ética empresarial.
- Más del 45% de los encuestados dicen que sus organizaciones han creado mecanismos de ética específicos de IA, como un marco de evaluación de riesgos de proyectos de IA y un proceso de auditoría/revisión.
- Menos de una cuarta parte de las organizaciones que respondieron han puesto en práctica la ética de la IA, y menos del 20 % de los encuestados estuvo totalmente de acuerdo en que las prácticas y acciones de su organización coinciden (o superan) con los principios y valores declarados.
“Dado que muchas empresas hoy en día utilizan algoritmos de IA en todos sus negocios, potencialmente se enfrentan a crecientes demandas internas y externas para diseñar estos algoritmos para que sean justos, seguros y confiables; sin embargo, ha habido poco progreso en la industria en la incorporación de la ética de la IA en sus prácticas”, dijo Jesús Mantas, socio gerente global de IBM Consulting, en un comunicado. “Los hallazgos de nuestro estudio IBV demuestran que construir una IA confiable es un imperativo comercial y una expectativa social, no solo un problema de cumplimiento. Como tal, las empresas pueden implementar un modelo de gobierno e incorporar principios éticos en todo el ciclo de vida de la IA”.
¿Cómo se implementa la IA ética?
El estudio proporciona a los líderes empresariales un conjunto de acciones recomendadas para mejorar la ética de la IA, que incluyen:
- Un enfoque colaborativo multifuncional y un conjunto holístico de habilidades entre todas las partes interesadas involucradas en el proceso de ética de la IA.
- Establecer la gobernanza del ciclo de vida de la IA y de la organización para hacer operativa la disciplina de la ética de la IA con un enfoque para incentivar, administrar y gobernar las soluciones de IA en todo el ciclo de vida de la IA, desde establecer la cultura adecuada para fomentar la IA de manera responsable, hasta prácticas y políticas para productos.
- Llegar más allá de la organización para la asociación al expandir su enfoque e identificar e involucrar a socios tecnológicos clave centrados en IA, académicos, nuevas empresas y otros socios del ecosistema para establecer una «interoperabilidad ética».
“Cada marca debe tener en cuenta cómo incluso los esfuerzos bien intencionados pueden cruzar las líneas de lo que se establece en los detalles de estas pautas”, dijo De Datta. “Tener una sólida comprensión interna de dónde y cómo usa la IA, además de priorizar una mayor transparencia con los clientes a medida que implementa esta tecnología, será clave para las marcas que navegan por estas nuevas pautas”.
Andrew Frank, un distinguido vicepresidente analista en la práctica de marketing de Gartner, dijo que, desde una perspectiva de marketing, lo más impactante de estas pautas será lograr que más especialistas en marketing se centren en los problemas éticos que la IA está planteando en sus prácticas.
“La rápida aceleración de las capacidades de IA, como la generación de texto a imagen y la personalización automatizada, promete a los vendedores y consumidores experiencias más gratificantes. Sin embargo, muchas capacidades de IA también tienen el potencial de propagar estereotipos dañinos y fomentar comportamientos destructivos”, dijo Frank. “Comprender y abordar estos efectos secundarios dañinos e involuntarios presenta un nuevo y profundo desafío para los especialistas en marketing que no están acostumbrados a considerar cosas como cómo el sesgo puede afectar los modelos de datos grandes. Obviamente, las pautas no son suficientes para resolver este tipo de problemas, pero al menos los iluminan”.