Los funcionarios británicos están advirtiendo a las organizaciones sobre la integración de chatbots impulsados por inteligencia artificial en sus negocios, diciendo que las investigaciones han demostrado cada vez más que se les puede engañar para que realicen tareas dañinas.
En un par de publicaciones de blog publicadas el miércoles, el Centro Nacional de Seguridad Cibernética (NCSC) de Gran Bretaña dijo que los expertos aún no habían abordado los posibles problemas de seguridad vinculados a los algoritmos que pueden generar interacciones que parecen humanas, denominados modelos de lenguaje grandes o LLM.
Las herramientas impulsadas por inteligencia artificial se están utilizando tempranamente como chatbots que algunos imaginan que desplazarán no solo las búsquedas en Internet sino también el trabajo de servicio al cliente y las llamadas de ventas.
El NCSC dijo que eso podría conllevar riesgos, particularmente si dichos modelos se conectaran a otros elementos de los procesos comerciales de la organización. Académicos e investigadores han encontrado repetidamente formas de subvertir los chatbots dándoles comandos no autorizados o engañándolos para que eludan sus propias barreras de seguridad incorporadas.
Por ejemplo, un chatbot con tecnología de inteligencia artificial implementado por un banco podría ser engañado para realizar una transacción no autorizada si un pirata informático estructurara su consulta correctamente.
«Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, de la misma manera que lo serían si estuvieran usando un producto o una biblioteca de códigos que estuviera en versión beta», dijo el NCSC en una de sus publicaciones de blog, refiriéndose a los lanzamientos de software experimental.
“Es posible que no permitan que ese producto participe en la realización de transacciones en nombre del cliente y, con suerte, no confiarían plenamente en él. Se debería aplicar una precaución similar a los LLM”.
Las autoridades de todo el mundo están lidiando con el auge de los LLM, como ChatGPT de OpenAI, que las empresas están incorporando en una amplia gama de servicios, incluidas ventas y atención al cliente. Las implicaciones de seguridad de la IA también siguen apareciendo en el foco de atención, y las autoridades de Estados Unidos y Canadá dicen que han visto a piratas informáticos adoptar esta tecnología.
Una encuesta reciente de Reuters/Ipsos encontró que muchos empleados corporativos utilizaban herramientas como ChatGPT para ayudar con tareas básicas, como redactar correos electrónicos, resumir documentos y realizar investigaciones preliminares.
Alrededor del 10 por ciento de los encuestados dijeron que sus jefes prohibieron explícitamente las herramientas externas de inteligencia artificial, mientras que una cuarta parte no sabía si su empresa permitía el uso de la tecnología.
Oseloka Obiora, director de tecnología de la firma de ciberseguridad RiverSafe, dijo que la carrera para integrar la IA en las prácticas comerciales tendría “consecuencias desastrosas” si los líderes empresariales no introdujeran los controles necesarios.
«En lugar de acostarse con las últimas tendencias de la IA, los altos ejecutivos deberían pensarlo dos veces», afirmó. «Evaluar los beneficios y riesgos, así como implementar la ciberprotección necesaria para garantizar que la organización esté a salvo de daños».