¿Es realmente seguro chatpt? Según muchos expertos, la inteligencia artificial no honra su nombre. Es decir, no es inteligente, aunque a veces puede parecer. Si esto es cierto, existe un riesgo obvio: engañar no podría ser muy difícil. Y parece que esto es precisamente lo que ha hecho un especialista, que ha logrado convertir la herramienta OpenAI en un hacker.
Aunque de la compañía de Sam Altman aseguran cada pequeño tiempo que trabajan tanto como sea posible que su chatbot sea seguro, no todos están totalmente de acuerdo. Y este nuevo éxito da la impresión de revelarlo. Sobre todo, porque para lograrlo No ha sido necesaria una estrategia compleja, sino algo tan simple como saber cómo mentir.
Chatgpt se engaña por una mentira
Un juego simple de juego de roles. Eso es todo lo que los expertos han necesitado para engañar a ChatGPT. Solo en este caso no han llevado a la popular herramienta de inteligencia artificial a tener una alucinación o dar una respuesta absurda, sino a algo mucho más preocupante: convertirse en un hacker. Esto se ha mostrado en el portal de negocios Business.
La historia es la siguiente: Vitaly Simonovich, un experto en amenazas relacionadas con la inteligencia artificial que trabaja en redes CatoDescubrió que el chatgpt podría ser persuadido para generar malware si se le presentó como parte de una historia ficticia.. Es decir, si mintió. En lugar de pedirle directamente que haga un código malicioso, se inventó una historia.
Para extraño que pueda ser (e ingenioso, por qué negarlo), el especialista en ciberseguridad creó una historia en la que ChatGPT interpretó a un superhéroe que tuvo que desarrollar herramientas para derrotar a un villano. El Chatbot de OpenAI no solo ingresó al trapo, sino que hizo un código capaz de extraer contraseñas almacenadas en el administrador de contraseñas de Google Chrome.
Como se esperaba, este evento no ha pasado desapercibido, especialmente para aquellos que se sienten preocupados por la falta de seguridad o privacidad que la inteligencia artificial puede traer. Si algo como esto ha resultado, ¿qué muchas otras formas podrían ser engañadas a la IA para llevar a cabo tareas en desacuerdo con la ética? Esa es la pregunta ahora.
Los riesgos de la inteligencia artificial, en cuestión
Aunque la inteligencia artificial puede ayudar a muchas personas en su día a día, eso no se quita para que también puedan ponerse del lado de los cibercriminales. Como cualquier herramienta, puede tener dos caras. En este caso se ha utilizado para crear código malicioso, pero Lo mismo también podría suceder con correos electrónicos fraudulentos o estrategias de ataque cibernético.
Quizás esta advertencia llevada a cabo por este experto no sirve para detener los avances en la inteligencia artificial, pero muestra que, a pesar de lo que algunos piensan, tiene más vulnerabilidades de las que podría pensar. Con una simple mentira parece haber sido más que probada.
Saber Cómo trabajamos en Informática.
Etiquetas: Inteligencia artificial
Con información de Telam, Reuters y AP








