Deepfake: advierten que delincuentes realizan estafas falseando rostros de famosos con Inteligencia Artificial
La IA ha tenido un gran alcance en nuestra sociedad de manera positiva. Sin embargo, los delincuentes se han aprovechado de estos avances para estafar a las personas.
Carabineros de Chile entregó recomendaciones luego de advertir que delincuentes están utilizando la Inteligencia Artificial (IA) para poder falsear rostros de famosos y así cometer estafas.
Los avances de la IA han ocasionado que los antisociales la utilicen como parte de un nuevo hecho delictual, el que corresponden al fraude a través de la imitación de rostros y voces, lo que se conoce como Deepfake, una acción que le hace aparentar a las víctimas y les hace creer que interactúan con otra persona a través de videos, audios o ambos.
La IA ha permitido alcanzar resultados muy reales y así conseguir sus objetivos en el área delictual. Los antisociales buscan acceder mediante subterfugios a información confidencial o acceder a sistemas de seguridad los que vulneran para obtener beneficio económico, asegura el Capitán Gabriel Bustamante de la Sección Ciberdelitos OS9 de Carabineros.
Del mismo modo, existe el concepto de “Vishing” o “Pishing de voz”, el cual asimila la voz de personas de confianza de las víctimas y tiene como principal objetivo el obtener información confidencial o dinero a partir de esta interacción.
Recomendaciones de la Sección Ciberdelitos del OS9:
- Si recibe una llamada o un mensaje que parece ser de un familiar que solicita dinero con urgencia, intente comunicarse con esa persona a través de otro canal seguro.
- Ajuste su configuración de privacidad en las redes sociales y otras plataformas para limitar la cantidad de información personal expuesta. Esto reduce el riesgo de convertirse en víctima de un fraude personalizado.
- Cuando se enfrente a solicitudes de información personal, financiera o de acceso al sistema, mantenga un nivel saludable de desconfianza, especialmente si la solicitud requiere una respuesta rápida.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.