Los sitios que utilizan IA (inteligencias artificiales) como Chat GPT han explotado en popularidad en el último tiempo, llegando a ser usados tanto por expertos como por personas comunes y corrientes. Sin embargo, en medio de esta revolución digital, surgen cuestiones sobre la ética de la tecnología y las consecuencias de su mal uso.
A principios de febrero de este año se comenzaron a viralizar imágenes explícitas de la cantante Taylor Swift a través de X (ex Twitter) que más tarde se descubrió que fueron generadas por IA. Las publicaciones alcanzaron casi 50 millones de visualizaciones antes de que la misma red social bloqueara la búsqueda del nombre de la estadounidense por dos días y eliminara los posts.
Todo surgió por un challenge en 4chan, un sitio web de tablero de imágenes anónimo que se ha vuelto notorio por alojar en su mayoría a hombres jóvenes de extrema derecha. La idea del desafío era evitar las censuras de generadores IA como Bing Image Creator y DALL-E para crear imágenes sexualmente explícitas de famosas. Cristina López G, una analista de Graphika, una compañía estadounidense de análisis de datos de RRSS que dió con el post original del challenge, reafirmó que Swift no fue la única famosa afectada y que todos estamos en peligro de ser víctimas en tanto nuestras fotos existan en el internet, especialmente las mujeres.
“El problema de los deepfakes, es decir, noticia, imagen, o video falso pero que se ve, a simple vista, real, no es nuevo”, afirma Gabriela Arriagada Bruneau, investigadora de CENIA y experta en ética de inteligencia artificial. “El gran problema con los deepfakes es que no tienen que engañar a nadie para ser malignos. Es poco probable que quienes vieron el contenido de Taylor consideren que es verídico. Sin embargo, el daño a su persona se concreta de todas maneras”, comenta la académica.
El factor ético
Son varias las expertas que consideran que la tecnología basada en inteligencia artificial no es inherentemente maligna, sino que es el uso que se le da el que promueve estereotipos discriminatorios. “Me parece que la IA ayuda a crear falsedades que son dañinas, pero no debemos olvidar que no es la IA en sí misma una amenaza, sino que el mal uso o mal diseño de esta es lo que genera ese riesgo” comenta Arriagada.
Desde ONG Amaranta, una organización fundada en Concepción que trata temáticas de Género, Infancia, Sexualidad, Tecnología y Derechos Humanos, comparten la opinión de la investigadora. “Cualquier tecnología ha sido vista en algún momento de la humanidad como una amenaza. Pasó con el televisor, con internet, y ahora pasa con la inteligencia artificial”, afirma Cecilia Ananías, periodista e integrante de Amaranta.
El gran problema con los deepfakes es que no tienen que engañar a nadie para ser malignos. Es poco probable que quienes vieron el contenido de Taylor consideren que es verídico. Sin embargo, el daño a su persona se concreta de todas maneras
“Las tecnologías no son peligrosas por sí mismas, lo que ocurre es que no están aisladas de la sociedad, y con ello no están aisladas de los problemas de esta. Es por eso que las tecnologías, sea la inteligencia artificial o cualquier otra, tienden a reiterar, por ejemplo, los modelos patriarcales, el racismo, el sexismo y la discriminación, porque son programadas y creadas por personas que tienen estos sesgos” comenta la periodista.
Asimismo, Ananías considera que el uso de deepfakes habla del trato social hacia las mujeres, más específicamente, al cuerpo de estas. Es una manera de denigrar y reafirmar la visión de que las mujeres son solamente objetos sexuales y que su valor está en qué tan deseadas son. “Se ve de una forma tan ajena el cuerpo femenino, que crear estas imágenes es una directa violencia, un insulto”, reflexiona la periodista.
Isadora Castillo, integrante de la Red Chilena contra la Violencia hacia las Mujeres, afirma que el mal uso de la tecnología no es una sorpresa. “En una sociedad que es machista, no es de extrañar que a través de estas herramientas se encuentren nuevas formas de denostar, discriminar o violentar a mujeres y niñas”, comenta la antropóloga.
De igual manera, a pesar de la fama y relevancia de las víctimas, incluso ellas se ven sin poder alguno cada vez que surgen imágenes de este tipo. Plataformas como 4chan, Telegram o incluso X, que es donde se viralizó en mayor medida el contenido, se demoraron casi 17 horas en responder y dada la naturaleza de internet, es posible que aún estén divagando por ahí las imágenes.
“Lo más fuerte de estos casos es que lo hemos visto en mujeres que tienen cierto poder y ciertos recursos. Entonces, si ellas se ven afectadas y no tienen las suficientes herramientas, ni políticas públicas, ni leyes para hacerle frente, ¿qué queda para las mujeres que no son famosas y que no tienen esos recursos?”, comenta Ananías.
¿Dónde está el Estado?
Acerca de las regulaciones, Estados Unidos ha avanzado con medidas que promueven salvaguardias contra el abuso sexual basado en imágenes, abogando por la privacidad y derechos civiles, y que funciona junto con el Acto sobre Violencia hacia las Mujeres. De igual manera, poco después de lo ocurrido con Taylor Swift, la Casa Blanca se manifestó en contra y llamó al Congreso a endurecer las leyes referentes a IA.
En el caso de Chile, el avance ha sido lento y las expertas aseguran que las legislaciones no están al nivel requerido para atender a las víctimas. Desde ONG Amaranta, se propuso una ley sobre violencia digital pero esta se encuentra atascada desde 2021. “Mientras el Estado va sumamente lento, aparecen nuevas formas de violencia, se van profundizando y estamos cada vez más al debe con las víctimas”, dice Ananías.
En ese mismo año se publicó la Política Nacional de IA, un texto que “presenta principios transversales que giran en torno al bienestar de las personas, los derechos humanos, la inclusión y globalización y la sostenibilidad, y que permiten guiar el buen uso de la IA”, según comenta Viviana Díaz, diseñadora de Miles.
“Esto es muy positivo porque esto nos posiciona muy bien como país a nivel regional en cuanto a los avances y aspiraciones que existen en torno a la IA”, afirma Díaz. Y es que si bien las políticas de IA y bienestar social en general suelen verse estancadas por años antes de ser discutidas, hay ánimos de promover lineamientos sobre el tema.
“La IA avanza muy rápidamente y el desafío está en que hay que estar tratando de ir a la par con estos avances de modo de poder ser capaces de regular y estar atentos ante cualquier forma que pueda afectar a las personas en su integridad”, dice la diseñadora.
Mujeres en la ciencia
Frente a un escenario tan hostil, es fácil caer en la negatividad pero las especialistas y activistas afirman que la educación y el involucramiento directo de las mujeres en la ciencia es fundamental para prevenir futuros acontecimientos como el de Taylor Swift. “Se suele ver la tecnología como si fuera algo masculino, como que tienes que tener estudios en informática para comprenderla, pero cualquier persona se puede acercar a esta área aprendiendo a nivel comunitario, perdiéndole el miedo al tema y quitándonos un poco estas mitologías de que es un espacio masculinizado”, comenta Ananías.
Al 2023, apenas un 19% de las mujeres se matricularon en carreras relacionadas a ciencias, por lo que la participación aún es baja. “Es sumamente importante que las mujeres participen de estos espacios de modo que exista una balanza y una aspiración de eliminar posibles sesgos de género que surgen cuando son solo hombres quienes participan del desarrollo de estas tecnologías”, afirma Viviana Díaz.
Asimismo son varios los proyectos sobre IA y tecnología en general con enfoque de género que se están formando en Chile, como el chatbot feminista de la Fundación de Datos Protegidos y ODEGI, y otras propuestas como la Consejería gratuita de Miles que recibe y orienta casos como los de personas afectadas por “la generación y/o distribución de imágenes explícitas de ellas sin su consentimiento”, complementa Díaz.
En el mes de la mujer, esto nos lleva a reflexionar sobre el uso de tecnologías y cómo estas afectan a la población femenina, entendiendo los problemas a nivel social y la constante discriminación de género, etnia, orientación sexual, entre otros.