Los acelerados avances de la inteligencia artificial (IA) y la accesibilidad de programas que utilizan esta tecnología han llamado la atención de numerosas personas. Y en ese grupo, también se encuentran algunos ciberdelincuentes.
Actualmente, los estafadores están recurriendo a nuevas estrategias para hacerse pasar por los titulares de cuentas bancarias, para así tratar de engañar a los operadores y solicitar transacciones de dinero.
Se trata de una modalidad reciente que, según los expertos, también podría ser utilizada para otro tipo de actos ilícitos.
Cómo se están usando los deepfakes de voz para robar cuentas bancarias
El término deepfakes, en este contexto, hace referencia a interpretaciones vocales que imitan la voz de personas reales, a pesar de que estas últimas nunca hayan dicho una frase o las palabras que se esbozan mediante este método.
Esta nueva forma de estafar con el apoyo de la IA es tan reciente que hasta el momento no existe un recuento masivo de cuántos individuos se han visto afectados por escenarios de este tipo.
Una de las personas que estuvo a punto de verse perjudicada fue Clive Kabatznik, un inversor de Florida, Estados Unidos, quien durante el primer semestre de este año llamó a su ejecutiva de Bank of America para hablar sobre una gran transferencia de dinero que pensaba hacer.
Más tarde, el teléfono de la operadora volvió a sonar, aunque con la diferencia de que no era él quien llamaba realmente. Se escuchaba una voz similar, aunque con ciertos gestos repetitivos y robóticos, la cual le pedía que hiciera una transacción de dinero a otro destino.
Pese a que en dicha oportunidad la ejecutiva notó que no era Kabatznik —y que la voz sonaba más parecida a la de un lector electrónico que a la de un ser humano— , este fenómeno ha llamado la atención de los especialistas en ciberseguridad.
A finales del año pasado, la compañía proveedora de autenticación de voz, Nuance, enfrentó el primer ataque exitoso con esta modalidad hacia uno de sus clientes.
Según manifestaron al New York Times desde Pindrop, una empresa que ofrece servicios similares a los de la firma mencionada, han identificado un aumento en la prevalencia y sofisticación de los intentos de fraude con esta estrategia.
Aquello ha generado preocupación y la búsqueda de nuevos mecanismos de control.
La amplia accesibilidad a programas de IA generativa, la velocidad del desarrollo tecnológico y la extensa cantidad de muestras de voz —para simular voces reales— disponibles en internet, en conjunto, son factores que facilitan las operaciones de estos grupos criminales.
En los casos de las personas que suelen hablar públicamente, copiar sus voces es aún más factible para los ciberdelincuentes, ya que abundan registros en la web. Lo mismo ocurre, según explicaron los especialistas al Times, con quienes muestran su voz por redes sociales como TikTok.
Si a eso se le suma la disponibilidad de datos robados que venden los piratas informáticos en el mercado digital negro, los riesgos son aún más grandes.
El consejero delegado y fundador de Pindrop, Vijay Balasubramaniyan, afirmó al citado medio que —a nivel general— todos los centros de atención telefónica reciben entre 1000 y 10.000 llamadas de estafadores al año.
No obstante, las que cuentan con deepfakes de voz empezaron recién el año pasado y hasta el momento son solo “un puñado”.
Una de las modalidades más comunes es cuando los criminales ocupan tecnología con IA de texto a voz, la cual consiste en que los ciberdelincuentes teclean palabras y luego el programa lee lo que escribieron.
Así fue en el caso que enfrentó la ejecutiva bancaria de Kabatznik. Sin embargo, ese método es uno de los más sencillos de identificar, debido a que hay programas de seguridad que pueden hacerlo a partir de ciertas señales.
“El habla sintética deja rastros, y muchos algoritmos antifalsificación los detectan”, declaró al Times el director general de IngenID, Peter Soufleris, un proveedor de tecnología de biometría de voz.
Una de las mayores dificultades, es cuando los atacantes utilizan otra tecnología en la que pueden hablar por un micrófono y esta automáticamente transforma su voz en una imitación de la de sus potenciales víctimas.
Informaciones reunidas por el citado medio detallan que existen aplicaciones que permiten hacerlo a partir de una muestra de audio de solo tres segundos.
Aún así, los robos exitosos mediante esta forma siguen siendo poco comunes.
El director general de seguridad y biometría de Nuance, Brett Beranek, explicó que el único que sufrieron en octubre del año pasado le significó al atacante más de una docena de intentos.
A pesar de esto último, el escenario no deja de presentar preocupación, ya que a medida que salen nuevos mecanismos de seguridad, los ciberdelincuentes buscan romperlos y así sucesivamente.