llegan las falsas videollamadas con voz e imagen generadas con inteligencia artificial

Los atacantes pueden clonar las caras y el timbre de voz de las personas para engañar a sus familiares.

En el último año, los avances en inteligencia artificial han revelado una faceta inédita para componer imágenes realistas: hacer videos falsos y textos coherentes. El clonación de voz también se une a la lista y los expertos en seguridad anticipan una nueva ola de estafas virtuales.

Las voces forjadas a través de IA todavía tienen mucho camino por recorrer antes de ser indistinguibles de las humanas pero, en una videollamada De corta duración, son capaces de engañar incluso a los más experimentados.

Sobre todo, si la persona que aparece en la pantalla del móvil pidiendo deposito por alguna fatalidad (accidente, robo o emergencia), coincide con la voz y apariencia de quien dices ser.

El auge de esta modalidad tiene su epicentro en China y se está expandiendo rápidamente a otras latitudes. Diferentes medios asiáticos informan de lo que parece una quimera de ciencia ficción: personas desposeídas por un avatar digitalizado.

Crecen las llamadas de avatares digitales que piden dinero a las víctimas.

Por esta razón, la Administración del Ciberespacio alerta al público a través de publicaciones en Weibo, el «Twitter chino», para que «sea cauteloso al brindar información biométrica y se abstenga de compartir videos y otras imágenes en Internet».

Sin embargo, las autoridades no cuentan con los recursos suficientes para frenar este tipo de fraude, pues es complicado identificar al estafador a través de llamadas y porque es una nueva tecnología que no tiene jurisprudencia para actuar con rapidez.

Según informó la agencia Xinhua, un empresario llamado Wan Guo transfirió $3,000 de su cuenta luego de recibir una comunicación de WeChat de una mujer cuyo rostro y voz se parecían mucho a los de su esposa.

La excusa fue que había tenido un accidente con su vehículo y tenía que pagar los daños causados ​​a otro conductor. Para escapar de la emboscada de la sospecha, insistió en que debe ser inmediata.

“Aunque había algo artificial en su forma de expresarse, no se me ocurrió sospechar ya que las expresiones faciales y hasta la voz eran las de mi esposa”, dijo el empresario a Global Times.

Un flagelo que se expande

El peligro que representa la clonación de voz a través de IA.

Los investigadores del caso descubrieron que los estafadores conocían las costumbres del matrimonio. También sabían que la mujer tenía un canal de cocina en una red social y de ahí tomaron las capturas de su rostro y voz para tramar el deepfake.

Intuyendo algo fuera de lugar, el empresario contactó a su esposa por mensaje después de unos momentos y ella le negó los hechos. Guo notificó de inmediato a la institución bancaria que procedió a bloquear la operación, impidiendo la transferencia.

Varios casos similares aparecen en las páginas del Washington Post, donde indican que, según datos de la Comisión Federal de Comercio (FTC), este tipo de fraude se encuentra entre los segundos más frecuentes, con más de 36.000 denuncias.

El temor es que algunos estafadores comenzaron a utilizar esta tecnología para clonar rostros de influencers y streamers, para reclamar productos y regalías a las empresas que los contratan.

En la mayoría de los intentos es dificil encontrar la trampa, sobre todo porque el tono urgente hace que la víctima sea menos reflexiva. El tema es más complicado si la persona que recibe la llamada es mayor y desconoce estas tecnologías.

Cómo se genera el engaño

Hace apenas un año, las imágenes generadas por IA parecían bocetos imperfectos y ahora son lo suficientemente realistas como para engañar a millones de personas. Algo similar sucede con la voz.

Algunas startups de síntesis de voz como ElevenLabs o Respeecher, a través de IA, permiten replicar cualquier locución con tan solo una muestra de audio de unos segundos, algo muy fácil de conseguir en las redes sociales.

El software de generación de voz analiza el patrón que hace que la voz de una persona sea única y busca en una amplia base de datos para encontrar un tono similar. Luego recree el timbre y los sonidos individuales para crear un efecto similar.

Los expertos en seguridad argumentan que la voz artificial no siempre suena tan melodiosa como la original. El tono es monótono y robótico, con extraños tartamudeos y artefactos sintéticos.

SL

mira también

Salir de la versión móvil