El riesgoso impacto de los deepfakes en el mundo laboral

Deepfake

La capacidad de esta tecnología para imitar de manera realista la imagen y voz de una persona dificulta su identificación y permite que se utilice para fines maliciosos en el ámbito del trabajo, amenazando la seguridad de las empresas, la confianza en el entorno y poniendo en riesgo la reputación de los trabajadores.


La inteligencia artificial (IA) está transformando diversos sectores, desde el marketing y las redes sociales hasta la educación, la salud y el entretenimiento, ofreciendo un futuro lleno de posibilidades. Pero, a pesar de esto, esta revolución tecnológica también conlleva implicaciones negativas que están afectando otros sectores, como el laboral.

Según el Foro Económico Mundial, el número de videos deepfake en línea está aumentando a una tasa anual estimada del 900%. Pero ¿qué son exactamente y cómo están impactando específicamente en el mundo del trabajo?

En términos sencillos, los deepfakes son imágenes, audios, textos y videos generados por inteligencia artificial (IA) que tienen una apariencia extremadamente realista, lo que hace que su autenticidad sea difícil de verificar y que permite, entre otras cosas, que se utilicen para fines maliciosos.

María Isabel Manjarrez, investigadora de seguridad y análisis para América Latina de Kaspersky, en el contexto de la Cyber Security Week 2024, realizada en Cartagena de Indias, señala que, en el ámbito laboral, estos engaños suelen estar motivados por intereses financieros y se implementan de distintas maneras.

Tres situaciones más populares

El primero en la lista, dice la ejecutiva, es el fraude financiero. En este tipo de engaños, se suplanta la identidad de un alto ejecutivo utilizando la ingeniería social, una técnica que manipula psicológicamente a las personas para explotar su confianza y obtener información confidencial, acceso a sistemas o realizar transacciones fraudulentas.

Para este tipo de ataques, los criminales suelen utilizar videollamadas o mensajes de voz en correos electrónicos para inducir a estas potenciales víctimas a realizar transferencias o acciones financieras no autorizadas.

tendencias
Estas amenazas pueden utilizarse para realizar estafas telefónicas, por ejemplo, haciéndose pasar por el familiar o conocido de alguien.

En segundo lugar, asegura, están los deepfakes pornográficos. En estos casos, los atacantes generan falsos contenidos en los que la víctima aparece en situaciones comprometedoras con el fin de chantajearla. Este tipo de manipulación busca forzar a los usuarios para que, después de instalar un malware, los criminales puedan realizar acciones contrarias a las políticas de la empresa o revelar información confidencial.

También están las estafas empresariales, que pueden resultar en pérdidas financieras, acciones regulatorias fabricadas, manipulación de acciones o espionaje industrial, están directamente vinculadas a los puntos anteriores. Los atacantes crean un deepfake de un alto ejecutivo para solicitar transferencias de dinero o información confidencial engañando a empleados de confianza y provocando graves pérdidas económicas.

Estos maleantes podrían incluso realizar una falsa reunión virtual montando un deepfake sobre el rostro del hablante. Ante estas eventuales amenazas, Manjarrez advirtió a “Piensa Digital” durante 2023 que “a la tecnología no hay que tenerle miedo y hay que probarla, para hacerla parte de nuestra vida y estar informado de las tendencias y que pueden ser también un riesgo”.

¿Cómo identificarlos?

Para reducir los riesgos asociados con ataques basados en deepfakes, es clave que las empresas capaciten a sus empleados, haciéndoles conscientes sobre la existencia de estas amenazas y los posibles impactos que puedan generar.

Según María Isabel Manjarrez, “es esencial prestar atención a los detalles y siempre verificar la información a través de canales oficiales o distintos a los utilizados para el contacto inicial”. La capacitación debe enfocarse en enseñar a los colaboradores el contexto de la evaluación y el contenido que pueda parecer sospechoso, con el plan de detectar manipulaciones digitales.

Deepfake
La tecnología deepfake, permite, por ejemplo, montar un rostro ajeno sobre un hablante o video, puede ser utilizada por los cibercriminales para engañar a empleados en las organizaciones.

La ejecutiva destaca varios aspectos clave que los usuarios deben observar para evitar caer en trampas basadas en deepfakes. Por ejemplo, recomienda prestar atención a posibles distorsiones de voz durante videos o llamadas, así como a anomalías en el fondo o entorno, movimientos irregulares, condiciones de iluminación inconsistentes y que alteren el tono de piel, parpadeos extraños o su ausencia total, labios desincronizados o la aparición de artefactos digitales en la imagen.

Evaluar estos indicadores es fundamental para verificar la autenticidad del contenido y protegerse contra estafas y manipulaciones que afectan la seguridad empresarial.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.

Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.