“Tus fotos e información personal han sido filtradas. Discutámoslo”. Con ese mensaje, Heejin, una universitaria de Corea del Sur, recibió una fotografía de su rostro en un cuerpo desnudo y sexualmente explícito que no era el suyo.

La joven fue víctima de una Inteligencia Artificial utilizada con malas intenciones.

Según le contó a BBC Mundo —con un nombre distinto, para proteger su identidad—, la joven continuó recibiendo imágenes suyas en escenarios pornográficos, creados por una aplicación de IA.

Este caso es similar al que sucedió en el Colegio Saint George’s, de la comuna de Vitacura en Chile, donde un grupo de estudiantes hombres hicieron un montaje del rostro de compañeras en escenas explícitas.

Se trata del abuso deepfake, que sucede cuando se utiliza la tecnología de la IA para imitar la apariencia e incluso voz de una persona. En general, las personas con malas intenciones eligen utilizar esta “herramienta” para poner a las víctimas en situaciones sexuales, ya sea para humillarlas o incluso chantajearlas.

Y, lo más peligroso de esto, es que algunas IA de deepfake están tan desarrolladas que los resultados son bastante convincentes.

Es por esto que, con el boom de casos de jóvenes vulneradas por la IA, Corea del Sur está pensando en tomar acciones duras contra los responsables y victimarios.

No solo pasa en Santiago: la crisis del “porno deepfake” afecta a los colegios coreanos

Estudiantes de Corea del Sur en crisis por casos de deepfake

La joven Heejin le dijo a BBC que, después de haber recibido las fotografías que utilizaban su rostro en escenas sexuales, se sintió petrificada y muy sola.

Pero, al igual que ella, son cada vez más las víctimas de este tipo de Inteligencia Artificial: lo anterior, fue denunciado por la periodista surcoreana Ko Narin, que reveló en un reciente reportaje que la policía está investigando redes de pornografía falsa en dos de las principales universidades de Corea del Sur.

La reportera coreana encontró decenas de grupos de chat en Telegram donde los usuarios compartían fotografías de mujeres que conocen y pedían que se utilizara un software de IA para convertirlas en imágenes pornográficas falsas.

Todo esto, se realizaba en solo segundos.

Sin embargo, el hallazgo de Ko, publicado en el diario Hankyoreh, se hizo todavía más oscuro: no solo estaban vulnerando a estudiantes universitarias, sino también a niñas de institutos y colegios.

Además, si es que se enviaban muchas fotografías de una sola mujer, los hombres detrás creaban “salas propias” llamadas “salas de humillación” o “salas de amigos de amigos”, donde restringían el acceso a unos cuantos.

“Me sorprendió lo sistemático y organizado que es el proceso. Lo más horrible que descubrí fue un grupo para alumnos menores de edad de un colegio, que tenía más de 2.000 miembros”, dijo Ko sobre su reportaje.

No solo pasa en Santiago: la crisis del “porno deepfake” afecta a los colegios coreanos

Según constató BBC, sus periodistas también pudieron ver estos chats de Telegram y pudieron ver la gravedad de la situación: por ejemplo, hay algunos grupos donde se le pide a los miembros publicar más de cuatro fotos de una mujer con su nombre, edad y zona en la que vive.

Después de algunos días de que se publicara el conmocionante artículo de Ko, distintas organizaciones activistas que defienden a las mujeres comenzaron a investigar sobre estos grupos de deepfake y lo que encontraron fue igual de desolador.

Más de 500 escuelas y universidades de Corea del Sur fueron identificadas como “objetivos” de los victimarios. Se cree que gran parte de las víctimas pueden ser menores de 16 años y, además, los presuntos autores son en su mayoría adolescentes.

Además, experimentar el deepfake es un proceso difícil para las víctimas: Heejin aseguró experimentar mucha ansiedad, pues no sabe cuántas personas han visto sus fotografías falsas.

“No podía dejar de pensar si esto había ocurrido porque yo había subido mis fotos a las redes sociales, ¿debería haber tenido más cuidado?”.

Al igual que ella, miles de mujeres han comenzado a ocultar o eliminar sus fotografías de las redes sociales, pues temen ser víctimas de esta IA malintencionada.

“Estamos frustradas y enfadadas por tener que censurar nuestro comportamiento y nuestro uso de las redes sociales cuando no hemos hecho nada malo”, dijo Ah-eun, una estudiante universitaria.

Pero además del escrutinio social, está el tema de las denuncias: ¿Es posible llegar a encontrar un culpable?

No solo pasa en Santiago: la crisis del “porno deepfake” afecta a los colegios coreanos

¿Se puede denunciar a la policía un deepfake?

Según Ah-eun, la estudiante universitaria, una víctima de su casa de estudios se acercó a la policía coreana para denunciar que habían utilizado una fotografía suya y la habían modificado para que tenga connotación sexual.

Sin embargo, la respuesta de las autoridades fue simple y tajante: le dijo que no se molestara en seguir con su caso porque era “demasiado difícil atrapar al autor” y que lo que le había pasado “no era realmente un delito” porque se trataba de “fotos falsas”.

Pero ahora, con el impacto del reportaje que conmocionó no solo a la opinión pública, sino también al gobierno, éste aseguró que impondrá “penas más severas” a los implicados: tanto para quienes crean el contenido, lo comparten y lo consumen.

Por otra parte, la Agencia Nacional de Policía de Seúl aseguró que investigará a Telegram, pues la aplicación ha permitido que todo este tiempo se difundan este tipo de contenidos que, en muchas ocasiones, incluye imágenes pornográficas falsas de menores de edad.

Además, el presidente surcoreano Yoon Suk-yeol solicitó que las familias “eduquen mejor” a los jóvenes.

Esto último, para Lee Myung-hwa, quien trata a jóvenes que son delincuentes sexuales en el Centro Cultural Juvenil Aha Seúl, los deepfakes para los adolescentes “se han convertido en parte de su cultura, lo ven como un juego o una broma”.

Por esto, la experta aseguró que es fundamental educar a la juventud para que deje de normalizarse este tipo de conductas que son graves y que, finalmente, caen en la categoría de abuso sexual.