El uso que se le está dando a la Inteligencia Artificial (IA) está llegando a límites inesperados, hasta el punto en que en el último tiempo ha comenzado a ser utilizada para cometer fraudes.

En términos simples, esto ocurre a través de la clonación de voz. Quien busca cometer algún delito imita el tono y forma de hablar de una persona con la ayuda de la IA, y después, llama a familiares para fingir que esa persona está secuestrada o bajo peligro mortal.

Esta práctica puede ser mucho más nociva de lo que aparenta ser, principalmente por la credibilidad que presentan las voces falsas.

Hace un par de días, Rachel Tobac, directora ejecutiva de SocialProof Security, mostró en CBS News cuán sencillo era para los hackers usar la información personal de alguien para cometer un fraude. Para ejemplificar el proceso clonó la voz de Sharyn Alfonsi, una periodista de CBS News, y su acción fue tan creíble que incluso obtuvo su número de pasaporte fácilmente.

“Cloné la voz de Sharyn y luego manipulé el identificador de llamadas para mostrar el nombre de Sharyn con una herramienta de suplantación de identidad”, contó Tobac en su cuenta de Twitter.

La reportera había salido reiteradas veces en televisión al ser su trabajo, por lo que tomó tan solo cinco minutos que la tecnología imitara su voz. Sin embargo, quienes suben contenido en redes sociales, como videos o audios, también podrían delatar cómo son sus voces ante quienes buscan estafar.

“Cualquiera puede ser engañado. Y muchas veces los atacantes van tras las personas, ni siquiera saben quiénes son estas personas. Pero solo saben que esta persona tiene una relación con esta otra persona”, dijo la directora ejecutiva de SocialProof Security en CBS News.

Tobac no es una desconocida en este tema. Ella es de quienes se hacen llamar hackers “éticos”, que se dedican a enseñar cómo operan los estafadores para advertir a la gente sobre los peligros a los que se exponen, de manera que puedan estar más atentos a resguardarse.

Entonces, ¿cómo uno se podría resguardar para no ser una víctima más de estos fraudes?

El sitio The Sun recopiló una serie de consejos que podrían servir para alejarse lo máximo posible de las suplantaciones de voz con IA.

Una persona podría clonar fácilmente una voz con Inteligencia Artificial, pero hay ciertas medidas que se pueden tomar para evitarlo.

No compartir tu voz en redes sociales

La clonación de voz realizada con tecnología no es un peligro exclusivamente de personas que exhiben su voz en los medios, como la periodista Sharyn Alfonsi, sino que también quienes publican videos hablando o cantando en sus cuentas de redes sociales de forma frecuente.

En el caso de que aún desees compartirlos con tu círculo, procura modificar la privacidad de tu cuenta para que solo personas de confianza tengan acceso a esos registros.

Lo anterior se debe a que apenas un breve periodo de tiempo de exposición será suficiente para arriesgarse: según la empresa de software McAfee, basta con apenas tres segundos de grabación de una voz en particular para que la IA pueda imitarla.

Prestar atención a llamadas que no han sido solicitadas

Cada vez que alguien cercano nos llame de forma muy repentina, y aún más si solicita dinero, hay que estar alerta. Pese a que puede sonar exactamente como la voz de ese conocido, no se debe confiar de inmediato, ya que podría tratarse de un suplantador.

Según los expertos, hoy en día no es complejo falsificar el identificador de llamadas. Por lo mismo, una medida recomendable es que antes de enviar dinero confirmes la información con la persona que está presuntamente siendo afectada, pero por otras vías externas a la llamada, ya sea por mensaje de texto o en redes sociales.

Antes de enviar dinero a una persona que dice estar sufriendo un secuestro o accidente, intenta confirmar la información con esa persona pero por otras vías fuera de la llamada, por ejemplo, a través de mensajes.

No ceder a la presión

Es usual que en medio de una llamada por un presunto secuestro de alguien cercano, los estafadores opten por manipular y presionar intensamente a las víctimas.

Si algún familiar o amigo afirma vivir esto a través de una llamada, sus seres queridos van a decidir enviarle la cifra solicitada para que pueda estar bien si la persona al otro lado del teléfono lo exige. Pero si estás experimentando esta situación, intenta no ceder a la presión constante de quien está amenazando.

Así le ocurrió a Jennifer DeStefano, una madre de Arizona (Estados Unidos) que casi fue estafada por un presunto secuestrador que aseguraba tener a su hija y que, si no le enviaba dinero, no la enviaría de vuelta. En la llamada, ella siempre creyó la situación porque oía a su hija hablar y sollozar, pero en realidad su voz había sido clonada con IA.

Pensar en una palabra secreta

Dado que las suplantaciones con IA se pueden hacer con tanta facilidad, una técnica que sirve para verificar alguna situación de crisis es tener una palabra clave que solo conozcan familiares y amigos más cercanos.

La idea es que esa expresión sea utilizada en algún momento muy complicado y cuando realmente necesitemos la ayuda de nuestro entorno. Como solo personas muy específicas conocerán la palabra secreta, termina siendo un método de prevención óptimo frente a los estafadores.