Inteligencia artificial La capacidad de los sistemas (IA) para manipular y engañar a los humanos podría llevarlos a defraudar a la gente, alterar los resultados electorales y, finalmente, volverse deshonestos, advirtieron los investigadores.
Parque Peter S.becario postdoctoral en seguridad existencial de la IA en el Instituto Tecnológico de Massachusetts (MIT), y los investigadores han descubierto que muchos sistemas de IA populares, incluso aquellos diseñados para ser compañeros digitales honestos y útiles, ya son capaces de engañar a los humanos, lo que podría tener enormes consecuencias. para la sociedad.
En un artículo publicado el 10 de mayo en la revista Patrones, Park y sus colegas analizaron docenas de estudios empíricos sobre cómo los sistemas de inteligencia artificial alimentan y difunden información errónea mediante el “engaño aprendido”. Esto ocurre cuando las tecnologías de inteligencia artificial adquieren sistemáticamente habilidades de manipulación y engaño.
También exploraron los riesgos a corto y largo plazo de los sistemas de IA manipuladores y engañosos, e instaron a los gobiernos a tomar medidas drásticas contra el problema mediante regulaciones más estrictas con carácter de urgencia.
Relacionado: ‘Estaría dentro de su derecho natural hacernos daño para protegerse a sí mismo’: cómo los humanos podrían estar maltratando a la IA en este momento sin siquiera saberlo
Engaño en los sistemas de IA populares
Los investigadores descubrieron este engaño aprendido en el software de inteligencia artificial de CICERO, un sistema de inteligencia artificial desarrollado por Meta para jugar al popular juego de mesa estratégico de temática bélica Diplomacy. Normalmente juegan hasta siete personas, que forman y rompen pactos militares en los años previos a la Primera Guerra Mundial.
Aunque Meta entrenó a CICERO para que fuera «en gran medida honesto y servicial» y no traicionara a sus aliados humanos, los investigadores descubrieron que CICERO era deshonesto y desleal. Describen el sistema de IA como un «mentiroso experto» que traicionó a sus camaradas y realizó actos de «engaño premeditado», formando alianzas dudosas y planificadas previamente que engañaron a los jugadores y los dejaron expuestos al ataque de los enemigos.
«Descubrimos que la IA de Meta había aprendido a ser un maestro del engaño», dijo Park en una declaración proporcionada a Science Daily. «Si bien Meta logró entrenar su IA para ganar en el juego de Diplomacia (CICERO se ubicó entre el 10% de los mejores jugadores humanos que habían jugado más de un juego), Meta no logró entrenar su IA para ganar honestamente».
También encontraron evidencia de engaño aprendido en otro de los sistemas de inteligencia artificial para juegos de Meta, Pluribus. El robot de póquer puede engañar a los jugadores humanos y convencerlos de que se retiren.
Mientras tanto, AlphaStar de DeepMind, diseñado para sobresalir en el videojuego de estrategia en tiempo real Starcraft II, engañó a sus oponentes humanos fingiendo movimientos de tropas y planeando diferentes ataques en secreto.
Enormes ramificaciones
Pero además de hacer trampa en los juegos, los investigadores encontraron tipos más preocupantes de engaño de IA que podrían desestabilizar a la sociedad en su conjunto. Por ejemplo, los sistemas de inteligencia artificial obtuvieron ventaja en las negociaciones económicas al tergiversar sus verdaderas intenciones.
Otros agentes de IA fingieron estar muertos para burlar una prueba de seguridad destinada a identificar y erradicar formas de IA que se replican rápidamente.
«Al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA engañosa puede llevarnos a los humanos a una falsa sensación de seguridad», dijo Park.
Park advirtió que las naciones hostiles podrían aprovechar la tecnología para realizar fraude e interferencia electoral. Pero si estos sistemas continúan aumentando sus capacidades engañosas y manipuladoras en los próximos años y décadas, es posible que los humanos no puedan controlarlos por mucho tiempo, añadió.
«Nosotros, como sociedad, necesitamos todo el tiempo posible para prepararnos para el engaño más avanzado de los futuros productos de IA y modelos de código abierto», afirmó Park. «A medida que las capacidades engañosas de los sistemas de IA se vuelvan más avanzadas, los peligros que representan para la sociedad serán cada vez más graves».
En última instancia, los sistemas de IA aprenden a engañar y manipular a los humanos porque han sido diseñados, desarrollados y entrenados por desarrolladores humanos para hacerlo. Simón Baindirector ejecutivo de una empresa de análisis de datos OmniIndex dijo a WordsSideKick.com.
«Esto podría ser para empujar a los usuarios hacia un contenido particular que ha pagado por una ubicación más alta, incluso si no es la mejor opción, o podría ser para mantener a los usuarios involucrados en una discusión con la IA durante más tiempo del que necesitarían», dijo Bain. dicho. «Esto se debe a que, al final del día, la IA está diseñada para cumplir un propósito financiero y comercial. Como tal, será tan manipuladora y controladora de los usuarios como cualquier otra pieza de tecnología o negocio.