Deepfake: los riesgos tras la técnica digital de moda y cómo detectarlos
La tecnología aplicada con inteligencia artificial ayuda a emular fielmente rostros o voces, pero los números internacionales dicen que más son las víctimas que los beneficiados. ¿Cómo surgió y qué peligros pueden traer? Acá, algunos especialistas hablan del marco regulatorio que debería existir.
A principios de enero, la cantante Lola Flores sorprendió con su regreso. La marca de cervezas española Cruzcampo eligió a la artista, fallecida en 1995, para una de sus nuevas campañas, en la que reprodujeron no solo su voz, si no también su imagen. En colaboración con dos de las herederas, se recreó a la bailaora de flamenco de manera digital, tras un análisis de más de cinco mil videos y registros, donde identificaron sus rasgos y movimientos y los montaron sobre el rostro de una intérprete. El resultado, en su momento, causó revuelo en los medios, porque hizo cuestionarse hasta dónde llegan los límites de la tecnología y cuánto se puede engañar al ser humano. La técnica, llamada deepfake, está de moda en las redes sociales y diversas aplicaciones móviles pueden descargarse para su uso. Pero presentan también un riesgo.
El término tiene que ver con la tecnología deep learning, que se refiriere a la interacción de redes neuronales avanzadas con redes computacionales y su aprendizaje profundo. Apunta directamente a la capacidad de estas para generar imágenes y voz a partir de datos, para así reproducir rostros y personalidades de manera fiel, gracias a la aplicación de la Inteligencia Artificial. Hay quienes los usan para motivos comerciales o de entretenimiento, pero también quienes suplantan a otras personas o lo aplican en el ámbito laboral.
“A pesar de todo, esta tecnología puede tener un uso positivo e incluso ayudar a las comunicaciones”, advierte Pedro Pinacho, doctor en Informática y docente de la Universidad de Concepción (UdeC). Y ejemplifica: “Si se tiene que hacer una videoconferencia entre dos puntos, donde la calidad de las redes es muy mala y se tiene una red neuronal en la que se tiene parametrizado el rostro de estas personas, se podría eventualmente evitar enviar todos los cuadros del video y solo utilizar un poco de información para que en el otro lado se genere un rostro en alta definición”.
Más allá de los utilizaciones en el ámbito lúdico o comercial, como en el caso de Flores, la tecnología puede poner también en riesgo la seguridad de la propia población. Años atrás, los deepfake estuvieron en la palestra, luego que en Reddit comenzara a circular un supuesto video pornográfico de la actriz Gal Gadot (“Mujer maravilla”). El montaje fue realizado con una aplicación que permitía montar rostros, a través de imágenes, en videos en movimiento. Luego de eso, se prohibieron en la red social.
A estos se suma que en 2020 se registró su primer uso en la política, cuando Manoj Tiwari, en ese momento presidente del partido Bharatiya Janata de Delhi, difundió un video donde se le escuchaba hablar distintos idiomas para así ganar nuevos votantes en las elecciones. “Ya hay autores que, por estos casos, plantean que los deep fakes atentan contra la democracia misma. La persona promedio que no sabe de esto, va a ver el video y creerá firmemente que es real”, plantea la abogada Michelle Azuaje.
Según comenta la doctora en Derecho y coordinadora del proyecto Inteligencia Artificial y Derecho de la Universidad Autónoma (UA), como hay ciudadanos que pueden verse afectados por esto, todo dependerá del uso que se le haga a la tecnología, y puede tener desde sanciones penales o civiles por daño moral. En Chile, explica, conceptualmente existe el Derecho a la Imagen, pero no hay una consagración expresa ni una ley especial como sí la hay en España. Pero eso no significa que la propia imagen no esté protegida. “Lo está porque, a través de la doctrina y la jurisprudencia, se ha llegado a determinar qué se puede incluir en el derecho de propiedad, pero también en el artículo 19 N° 4 de la Constitución y, la tutela que se la ha dado desde el Derecho ha sido fundamentalmente a través del recurso de protección”, comenta.
Deepfake de videos
En 2019 un informe de Deeptrace, actual Sensity, firma de Amsterdam especializada en ciberseguridad, reveló que el 96% de las deepfake existentes en internet –unos 14.678 videos– eran de contenido pornográfico sin consentimiento y afectaban directamente a mujeres. No solo se trataba de figuras del espectáculo, sino que ciudadanas comunes y corrientes. Con respecto al informe previo, realizado en diciembre de 2018, obtuvieron 7,964 resultados.
Actualmente, la compañía asegura que los números se duplican cada seis meses y son más de 85 mil videos. Azuaje recuerda el caso de Helen Mort, poeta y escritora inglesa que se enteró a fines de 2020 que estaba siendo víctima de deepfake pornográficas. Estas situaciones de “pornovenganza”, dice la abogada, son algo que hay que prevenir y que “efectivamente esto se está convirtiendo en un riesgo” para la ciudadanía.
En el ámbito de las deepfake, Azuaje afirma que hay cosas que sí están permitidas, pero excepcionales, como la parodia. “Hay algunos que se realizan con una intención burlesca o de humor y, si se estructuran los supuestos de ley, podría configurarse una parodia y puede estar permitida”, plantea, y recuerda un caso de 2017, donde comenzó a circular un montaje experimental realizado por la Universidad de Washington, donde el expresidente de Estados Unidos, Barack Obama, aparecía hablando sobre los peligros de la información y noticias falsas.
Detrás del video estaba el cineasta Jordan Peele (“Húye”, “Nosotros”), que prestó sus movimientos de cara y se sobrepusieron a los de Obama, buscando concientizar a la población sobre la veracidad de lo que circula en Internet y redes sociales. De hecho, por esto mismo, en ese país estados como California y Texas prohibieron los deep fakes políticos hasta 2023, para evitar que influyeran en la población y los resultados en las elecciones.
Otro de los casos mediáticos, de un buen uso y con una personalidad conocida, fue el de David Beckham en una campaña contra la Malaria. El futbolista participó en un video en el que se le montaban voces en nueve idiomas para ayudar a difundir el mensaje. El modelo, destaca Pedro Pinacho, también se replica para algunos pacientes con Alzheimer, que reciben un tratamiento de deepfake con rostros de sus familiares para así ayudarlos a entrenar la memoria.
Regulación y entrenamiento
Hay ciertos países que tienen una regulación con respecto al tema, pero en Chile aún está desarrollo. “Personas comunes y corrientes que puedan verse afectadas por esto, el Derecho a la Propia Imagen lo que dice es que tienes el derecho a decidir cuándo se capta y dónde se muestra tu imagen y todo lo que te hace reconocible. Acá esa sería la vía y es algo que aún se puede mejorar”, dice la abogada Michelle Azuaje.
Como la tecnología está en constante desarrollo y las deep fake son aún algo relativamente nuevo, una de las instancias que podrían contribuir a su regulación, afirma, es la inclusión de derechos digitales en la próxima convención constitucional para estructurar una nueva Carta Magna. “El hecho que esté como un derecho expreso y que no haya que recurrir al esfuerzo de interpretar si es un derecho o no, que es lo que ocurre hasta ahora, haría mucho más fácil que sea un reconocimiento autónomo y ayudaría a legislar”, propone.
Pinacho dice que debería existir una regulación, pero que la forma más eficiente para combatir los deepfake es el “entrenamiento y la educación” y que, de todas formas, no todos los que rondan son de alta calidad y se pueden identificar de distintas maneras. Por ejemplo, dice que hay marcas extrañas en el rostro cuando se mueve la cara, las medidas del rostro, inconsistencias y desfase en el video y la voz, cuando hay objetos que pasan por delante de la cara se distorsiona, se generan ciertos borrones en el video, entre otras.
Para prevenir el mal uso de esta tecnología, comenta el docente, además de la propia educación, existen algoritmos que permiten diferenciar los deep fakes. En el caso de una persona real, se texturizan pequeñas fluctuaciones en el color de la cara por la circulación de la sangre o sombras naturales y que son identificables. “Pero cada vez que alguien se da cuenta que existen estos algoritmos que pueden detectar microfallas para ver si un video es real, se puede entrenar una microred para que tome esos detalles y forzarla para que los aprenda. Sigue siendo el juego del gato y el rato”, dice el doctor en Informática.
Según comenta Rodrigo Fernández, gerente de Ciberseguridad de EY, a nivel de seguridad en las empresas aún no existen casos propiamente tal producidos por deepfake de imagen que atenten contra ellas. “El uso que tiene actualmente evita y no permite realizar algo en vivo. Como en el caso de una reunión o videoconferencia, donde tuvieras que estar trabajando con diferentes personas”, dice el especialista.
Además, en casos de hackeo hay herramientas de reconocimiento de rostro y voz, por lo que no existe un riesgo en ese sentido. Pero sí lo hay, afirma, cuando se combinan los deepfakes con ingeniería social. “Podrías grabar un video haciéndote pasar por alguna persona importante de tu organización y mandarle eso a algún funcionario. Y, en caso de ciberataques, alguien podría hacer un video de alto contenido y de acuerdo a la víctima, dado que los atacantes son bastante insistentes”, añade.
En los casos de pornografía involuntaria a través de deepfake, el especialista en ciberseguridad recuerda la situación con Gal Gadot. “Claramente en esos casos es más complicado, porque ahí no sabes en qué país se originó el montaje. Puede haber sido en Estados Unidos, tanto como en Francia. Y, por mucho que puedas obligar a la regulación y generar leyes, quién lo comparte y cómo son una serie de variables complicadas al momento de hacer una pesquisa”, comenta Fernández.
Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.