¿Podría la inteligencia artificial estar mejorando a la hora de engañar a la gente? Un estudio advierte de que sí, y no duda en advertir de los riesgos que esto puede conllevar en el futuro.
Raro es el día en que la inteligencia artificial no sea la protagonista. Por un lado, por los muchos avances que presenta, como ha sido el caso de ChatGPT-4o.
Sin embargo, también ocurre lo contrario: muchas voces lanzan señales de alarma respecto a todo lo que atañe a esta tecnología. ¿Y quién no ha visto películas en las que la IA resulta fatal para la humanidad?
Por si no había ya suficientes temores, al menos entre buena parte de la población, ahora un trabajo parece dispuesto a echar un poco más de leña al fuego. Después de haber estudiado en profundidad la inteligencia artificial, sus conclusiones son sorprendentes: La IA engaña cada vez más a los usuarios, es cierto.
Inteligencia artificial, ¿experta en engaño?
¿Qué es hacer trampa? Si le preguntas a alguien, seguramente te dirá que mentir o mentir es por algún propósito. Los creadores de un nuevo estudio relacionado con la inteligencia artificial, sin embargo, lo explican con otras palabras. Para ellos se trata de “la inducción sistemática de creencias falsas en otros para lograr un resultado distinto de la verdad”.
Los científicos Peter S. Park, Simon Goldstein, Aidan O’Gara, Michael Chen y Dan Hendrycks han publicado un informe en el que afirman que la IA es capaz de hacer esto y mucho más. Eso es Se estaría convirtiendo en una especie de experta en el arte del engaño.. Por supuesto, esto conllevaría riesgos, pero hay soluciones. No todo está perdido.
De todas formas, el diagnóstico de los especialistas es preocupante: “Grandes modelos de lenguaje y otros sistemas de IA han aprendido, de su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, los halagos y el engaño en las pruebas de seguridad”, advierten en su informe.
Por supuesto, los riesgos podrían ser considerables dadas las “crecientes capacidades de la IA para engañar”. El informe abarca desde riesgos que podrían experimentarse en el corto plazo, como el fraude y la manipulación electoral, hasta amenazas que tardarían más en llegar, como la pérdida de control sobre los sistemas de inteligencia artificial. Algo que ya se ha notado antes.
Las soluciones para arreglar la IA son imposibles
Aunque los expertos temen las consecuencias que podría tener la IA descontrolada al engañar a los humanos (como parece que ya está sucediendo), también ofrecen soluciones. Es decir, cambiar lo que sucede no es imposible. Solo Serían necesarios “marcos regulatorios para evaluar los riesgos del engaño de la IA y leyes que requieran transparencia”.
¿Se lograrán estas medidas en el futuro? Tampoco hay que olvidar que este estudio llega en un momento complejo para la IA. Por un lado se valora todo lo que puede ofrecer la nueva versión de ChatGPT, pero también se ha visto como muchos directivos de grandes empresas tecnológicas han decidido abandonar sus puestos para advertir de la falta de seguridad.
De momento, nadie parece ponerse de acuerdo sobre si realmente existe un riesgo claro en esta tecnología, como en las películas de ciencia ficción, o no hay grandes motivos para preocuparse.
Conocido cómo trabajamos en Computerhoy.
Etiquetas: Inteligencia artificial, ShareOnFB
Con información de Telam, Reuters y AP