Voces clonadas con IA: la última moda entre los ciberdelincuentes para realizar estafas telefónicas

A pesar de los grandes usos de la inteligencia artificial, se está produciendo un tipo de ataque muy sofisticado y revolucionario que hace uso de esta tecnología para clonar la voz de un familiar o amigo y extorsionar a la víctima.

El mundo está experimentando una revolución digital impulsada por la inteligencia artificial. A medida que esta tecnología avanza, también lo son las formas en que se puede utilizar para fines que no son tan positivos como uno quisiera.

Uno de los aspectos más preocupantes de estos avances es la capacidad de clonar voces humanas con una precisión nunca antes vista. Si bien esta tecnología tiene aplicaciones legítimas, como locuciones en películas o asistencia a personas con discapacidad, también ha caído en manos equivocadas.

Por ejemplo, Las estafas telefónicas con clones de voz se están convirtiendo en una amenaza cada vez mayor, volviéndose más sofisticadas y difíciles de detectar.

«En los últimos años, las estafas de clonación de voz con IA más comunes generalmente han estado vinculadas a un objetivo económico. Por ejemplo, en varios países se han denunciado campañas en las que los estafadores han clonado la voz de familiares o conocidos de sus víctimas y han utilizado un presunto problema o urgencia en el que necesitan dinero inmediatamente como señuelo», explica en una entrevista para computadora hoy Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia de Entelgy Innotec Security.

Clonación de voz con IA: ¿cómo funciona y cómo se aplica a las estafas telefónicas?

La clonación de voz con IA es un proceso que Implica grabar y analizar la voz de una persona y luego recrearla de tal manera que no se pueda distinguir. Los delincuentes pueden obtener grabaciones de voz de diversas fuentes, desde llamadas telefónicas anteriores hasta vídeos y mensajes de voz.

Luego utilizan algoritmos de inteligencia artificial para analizar los matices y peculiaridades de esa voz en particular, como el tono, la velocidad y los patrones de entonación.

Una vez finalizada esta fase de análisis, La IA puede generar una voz clonada que suena casi idéntica a la de la persona original. Esto permite a los delincuentes hacerse pasar por la víctima y llevar a cabo una serie de estafas telefónicas engañosas.

En estos pueden hacerse pasar por un familiar, un amigo o incluso una figura de autoridad, como la policía o incluso el banco. Estas llamadas también suelen implicar situaciones de emergencia o urgencia, lo que aumenta la presión sobre la víctima.

Pueden pedir dinero, información personal o hacer solicitudes que normalmente serían cuestionadas, pero dado el momento tenso, muchos terminan cayendo en la trampa.

«En el lugar de trabajo, puede ser una actividad especialmente sensible, ya que estas voces clonadas podrían utilizarse en el marco de campañas de fraude de directores ejecutivos altamente creíbles, con pérdidas que podrían ser enormes para la organización afectada por la acción. Además, También se pueden utilizar para hacerse pasar por personas populares o famosas y conseguir que sus fans revelen todo tipo de información.acudir a un determinado lugar o incluso aportar dinero bajo la premisa de obtener un favor de su parte, como un contacto exclusivo con la persona o un premio”, añaden los expertos entrevistados.

«Se estima que en los próximos años este tipo de delitos aumentará, pudiendo suponer un gran riesgo para los particulares debido a la complejidad de identificar el fraude, que con el tiempo también es probable que experimente múltiples mejoras», prosiguen.

«Cada vez es menos probable que se detengan este tipo de incidentes». Sin embargo, aún puedes evitarlo.

Teniendo esto en cuenta, Hay algunos puntos a evaluar y medidas a tomar para mantenerse a salvo:

«Para identificar una llamada telefónica fraudulenta en la que se utiliza una voz clonada mediante IA, los usuarios pueden atender a una serie de indicadores básicos, como que la llamada en cuestión se realiza desde un número de teléfono desconocido o que el presunto familiar, conocido o agente tiene una voz un poco robótica, donde habitualmente no se detiene en su discurso, que parece aprendido de memoria», explican Raquel Puebla e Itxaso Reboleiro.

«Del mismo modo, es común que En este tipo de estafa, la máquina se detiene ligeramente después de recibir las respuestas de las víctimas., porque necesita un corto periodo de tiempo para poder procesar la información recibida. Además, es probable que el receptor de la llamada perciba un comportamiento inusual en el remitente, ya que los ciberactores suelen recurrir al drama para conseguir que el primero tome una decisión apresurada con efectos inmediatos», añaden.

Con todo esto, mantén los oídos bien abiertos. El primer paso es saber que este tipo de ataques que hacen un uso indebido de la inteligencia artificial realmente existen, por lo que ya tienes parte del camino hecho para tu seguridad.

Con información de Telam, Reuters y AP

Salir de la versión móvil