Violencia digital y manipulación de imágenes: cuando la Inteligencia Artificial se usa sin consentimiento

ciberacoso



Hace unas semanas, una mujer denunció en TikTok que robaron fotografías de sus redes sociales para crear contenido erótico sin su consentimiento utilizando Inteligencia Artificial (IA). Desde una cuenta misteriosa de Instagram, detalló, le enviaron mensajes para extorsionarla y difundieron imágenes en las que reconoció su cara, pero no su cuerpo. Cuando su caso se viralizó, otras mujeres aseguraron haber tenido experiencias similares.

Hasta hace poco, se necesitaban conocimientos informáticos específicos para poder crear pornografía o contenido erótico realista con IA. Pero ahora existen varias herramientas –asequibles y relativamente fáciles de usar– con las que se puede generar este tipo de contenidos. Recientemente las actrices Emma Watson y Scarlett Johansson fueron víctimas de un deepfake –un video, imagen o un audio generado que imita la apariencia y el sonido de una persona– en donde se utilizaron sus caras para un video erótico. Las imágenes se difundieron por redes sociales para promocionar una aplicación que, por ocho dólares al mes, permite poner el rostro de una persona a un video utilizando IA.

Según el diario The Washington Post, que cita a expertos en el tema, a medida que este tipo de tecnologías avancen, es posible que aumenten también los incidentes de acoso y extorsión y la violencia de género digital.

IA
Inteligencia Artificial. Imagen Referencial. Foto: Pixabay.

Hasta 2019, el 96% de los deepfakes en Internet eran de carácter pornográfico, según un análisis de la firma de AI DeepTrace Technologies y la mayoría de ellos eran de mujeres. En 2020 se identificaron más de 15.000 deepfakes en línea, según un estudio realizado por la firma de seguridad cibernética Sensity.

“Que se utilicen estas nudes para atacar a las mujeres es una muestra de cómo se nos percibe a las mujeres y de la violencia de género que seguimos viviendo todos los días. La IA no está creando nuevas problemáticas. Ahora que estamos entrando en este nuevo ciberespacio, en el mundo de la ciencia de datos y IA, esas problemáticas vienen con nosotros”, explica Valentina Muñoz, programadora y activista por los derechos digitales.

Hay que hacer hincapié, dice Muñoz, en que difundir una imagen sexual sin consentimiento es violencia de género aun si la imagen es falsa. A las mujeres “se les vulneran los derechos y la privacidad y se les continúa sexualizando. Mientras la IA y todas las tecnologías no se aborden con perspectiva de género vamos a seguir teniendo estas problemáticas”, explica.

La presidenta de la Asociación de Mujeres Jóvenes por las Ideas (AMUJI), Martina Figueroa, asegura que se vigila de cerca este tema, que cambia y avanza todos los días, y que no cuenta con una regulación robusta para ser abordada. “Muchas personas están usando herramientas digitales para infringir violencia en contra de otras personas; y lastimosamente, mujeres y niñas son las más afectadas por la violencia digital”, dice.

Según un estudio realizado por la ONU en 51 países en 2022, el 38% de las mujeres encuestadas había sido víctima de algún tipo de acoso o abuso en línea, lo que incluye la difusión de contenido sexual no consensuado.

¿Y cómo se regula?

Nathalie Walker, abogada y académica de la Universidad Andrés Bello, explica que la falta de regulación en esta materia genera incertidumbre porque el desarrollo de esta tecnología se está produciendo de manera muy rápida y permite hacer cosas que hasta hace unos años eran impensadas.

Y esta normativa tan necesaria, explica, no está exenta de dificultades. “Una regulación excesivamente restrictiva puede poner en riesgo la innovación y, con ello, hacer que el desarrollo industrial y el progreso se estanquen. Por otro lado, las empresas tecnológicas tienen un gran poder económico que, en muchos casos, consigue evitar los intentos de regulaciones sectoriales”, dice. Para la experta es necesario un esfuerzo conjunto ya que no sirve que cada país cree su propia normativa.

En Chile, la legislación está creada y pensada para entornos físicos, no para los virtuales. Y si bien existen algunas respuestas en el ámbito jurídico penal para enfrentar estas situaciones, aún falta mucho por hacer.

“No es ésta la vía más frecuente, principalmente, porque la víctima de esa manipulación pretende lograr un ‘rápido control de daños’: si existe una foto trucada o un video falso en que supuestamente ella aparece, lo que necesita es conseguir que se ‘baje’ del sitio o plataforma y que deje de circular, para que las personas no sigan viéndolo”, explica Walker. “Y, para lograr ese objetivo, no puede esperar el desarrollo de un proceso que puede tomar varios años. Por tal razón, este tipo de casos han sido reconducidos más bien por la vía de recursos de protección (para evitar que sigan circulando las imágenes) y demandas indemnizatorias (para reparar los daños)”, añade.

En general, los gobiernos de distintos países están trabajando en conjunto con organismos privados y empresas tecnológicas para desarrollar estándares y directrices éticas en el uso de la Inteligencia Artificial y así establecer políticas que aborden el impacto negativo de la manipulación de imágenes.

Por ahora, los expertos concuerdan en que no es realista pedirles a las personas que eliminen su presencia digital para evitar ser víctimas de acoso, pero sí sugieren no utilizar ni apoyar plataformas que utilicen este tipo de contenido y concientizar sobre el “consentimiento digital”.

Lee también en Paula:

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.