La desinformación política en tiempos de la inteligencia artificial
El creciente aumento del uso de archivos multimedia manipulados, conocidos como deepfakes, ha gatillado la preocupación de la comunidad internacional para que no sean usados en campañas electorales, justo en un año en el que se llevarán a cabo comicios en más de 50 países. Hasta ahora ya se ha realizado una grabación falsa del Presidente de Estados Unidos, Joe Biden, y del líder laborista británico Keir Starmer, entre otros, para interferir en elecciones.
“Es importante que guardes tu voto para las elecciones de noviembre. Votar este martes solo permite que los republicanos elijan nuevamente a Donald Trump. Tu voto marca la diferencia en noviembre, no este martes”, decía un convincente Joe Biden en una grabación que fue enviada el mes pasado por teléfono a los votantes de las primarias republicanas celebradas en New Hampshire.
Sin embargo, el mensaje del mandatario demócrata era falso, y había sido creado por la compañía de seguros Life Corporation, con sede en Texas, que imitó su voz usando inteligencia artificial (IA). Este caso no es el único y en todo el mundo se ha replicado el mal uso de esta tecnología para manipular los resultados de elecciones, frente a lo cual expertos han advertido que puede significar un peligro en un año que justamente pondrá a prueba las democracias alrededor del globo.
Este año se llevarán a cabo comicios en más de 50 países, que albergan a la mitad de la población del planeta. Desde Rusia, Taiwán y Reino Unido hasta India, pasando por El Salvador y Sudáfrica, las elecciones presidenciales y legislativas tienen enormes implicancias para los derechos humanos, las economías, las relaciones internacionales y las perspectivas de paz en un mundo volátil. Los deepfakes generados por IA son videos, imágenes y audios que manipulan digitalmente la apariencia, la voz o las acciones de candidatos políticos y funcionarios electorales.
Una herramienta que a juicio de los expertos es muy peligrosa. Para Arshin Adib-Moghaddam, autor del libro “Is Artificial Intelligence Racist?”, el deepfake “debe identificarse como una de las principales amenazas a nuestras democracias”.La cantidad de deepfakes que se han creado aumenta un 900% año tras año, según datos de Clarity, una empresa de aprendizaje automático. Y en 2023, según una encuesta de Freedom House, la inteligencia artificial generativa se utilizó en al menos 16 países para crear videos, imágenes o audio con el objetivo de “sembrar dudas, difamar a los oponentes o influir en el debate público”.
El también académico de la Universidad de Londres explicó a La Tercera que la tecnología con IA “estimula la realidad de una manera perfectamente escenificada y en la medida en que es cada vez más difícil diferenciar entre realidad y ficción. En tal contexto, perdemos nuestra capacidad de mostrar la verdad, que es crucial para cualquier sistema democrático que respete los derechos humanos”.
Deepfakes en el mundo
En Estados Unidos, tras la interferencia electoral de New Hampshire, la Casa Blanca confirmó que Biden no registró la llamada y dijo que resalta los desafíos que presentan estas tecnologías emergentes, especialmente antes de las elecciones presidenciales de noviembre. También, la Comisión Federal de Comunicaciones declaró ilegal el uso de llamadas automáticas utilizando voces generadas por inteligencia artificial.
Otro de los casos más recientes y que generó polémica ocurrió en Indonesia, donde a inicios de febrero fue “revivido” Suharto –que gobernó el país por más de tres décadas– para llamar a votar antes de las elecciones generales del 14 de febrero. El mensaje “desde el más allá” fue impulsado por el partido Golkar, uno de los más grandes y antiguos de Indonesia, al que pertenecía.
En Reino Unido, un audio deepfake del líder laborista Sir Keir Starmer pretendía capturarlo insultando al personal del partido en octubre pasado.
En la Unión Europea, la Agencia de Ciberseguridad (ENISA) indicó en octubre pasado que todas las elecciones que se llevarán a cabo este año en el bloque están en riesgo debido a los chatbots de inteligencia artificial y a las imágenes y videos falsos. La agencia registró más de 2.500 incidentes cibernéticos entre julio de 2022 y junio de 2023, 220 de ellos dirigidos específicamente a dos o más países del bloque.
En las elecciones parlamentarias de Eslovaquia del pasado 30 de septiembre, por ejemplo, circularon en Facebook mensajes del partido de extrema derecha República, donde el líder progresista Michal Šimečka, aparentemente “anunciaba” planes para aumentar el precio de la cerveza si era elegido y “discutía” cómo su partido manipularía las elecciones, incluso comprando votos de la minoría romaní del país.
Adib-Moghaddam indicó que es necesario combatir este problema “mediante legislación nacional e internacional, pero también mediante campañas de sensibilización dentro de las sociedades civiles. (...) Todo está impregnado de esta tecnología, por lo que el punto de partida tiene que ser la autoeducación y presionar a nuestros gobiernos para que supervisen a los llamados ‘gigantes tecnológicos’ y su tecnocapitalismo machista”.
El viernes pasado, en la Conferencia de Seguridad de Múnich, las principales empresas de tecnología firmaron un pacto para adoptar voluntariamente “precauciones razonables” para evitar que se utilicen herramientas de inteligencia artificial para perturbar las elecciones de este año. Adobe, Amazon, Google, IBM, Meta, Microsoft , OpenAI y TikTok anunciaron un nuevo marco sobre cómo responderán a los deepfakes generados por IA que engañan deliberadamente a los votantes. Otras doce empresas, incluida X, de Elon Musk, se sumaron al acuerdo.
Las empresas no se comprometieron a prohibir ni eliminar los deepfakes. Sino que el acuerdo describe los métodos que utilizarán para intentar detectar y etiquetar contenido engañoso de IA cuando se cree o distribuya en sus plataformas. Señala que las empresas compartirán las mejores prácticas entre sí y brindarán “respuestas rápidas y proporcionadas” cuando ese contenido comience a difundirse.
En entrevista con el diario español El País, Brad Gil, director de Microsoft, afirmó que el acuerdo es de gran importancia, ya que “en primer lugar, porque el problema lo es. (...) Con este acuerdo tecnológico nos enfocamos en tres cosas. Una es proteger mejor la autenticidad del contenido con credenciales y marcas de agua. En segundo lugar, detectar deepfakes y eliminarlos si quieren engañar al público. Y, tercero, debemos enfocarnos en la educación ciudadana”.
Según señaló Gil, “esto importa mucho porque afecta a procesos electorales, pero desafortunadamente afecta a otros problemas también, como el fraude financiero y el acoso cibernético, especialmente a niños y mujeres. Esos dos grupos son especialmente vulnerables. Y deberemos hacerlo bien, porque si no el mundo será peor en lugar de mejor por esta tecnología”.
En lo último coincide el académico Adib-Moghaddam, y compara los deepfakes con organizaciones criminales. “Del mismo modo, las organizaciones criminales han utilizado los deepfakes para extorsionar a sus víctimas, en particular a las personas mayores. Como cualquier otra tecnología en la historia de la humanidad, son los estratos vulnerables de la sociedad los que más sufren: los niños, los ancianos y las minorías étnicas, sexuales y de género”.
Para Rafael Rincón-Urdaneta, líder vocero de los Objetivos de Desarrollo Digital (ODD) de País Digital (FPD), el acuerdo logrado en Múnich “es importante y ayuda mucho, pero no necesariamente es suficiente”. Ello porque, considera, no solo es responsabilidad de las empresas garantizar la seguridad o tomar iniciativas en torno a los contenidos falsos producidos con inteligencia artificial, sino que también hay un rol de la ciudadanía y de lo que pueda hacerse desde la sociedad civil para enfrentar este tipo de problema, según explicó a La Tercera.
”La participación activa de nosotros como responsables, como consumidores y usuarios de información competentes, es fundamental. Y es por eso que debemos ser cada vez más escépticos y cuidadosos, cada vez más responsables. Esto es parte de la ciudadanía digital. Debemos siempre verificar la información. Si yo formo parte de esa cadena y empiezo a difundir información falsa, soy parte del problema y lo que estoy haciendo es ayudar a que esa información, que es falsa, tenga un impacto negativo”, añadió.
Rincón-Urdaneta sostuvo que el desafío de combatir los deepfakes y toda clase de contenido manipulado involucra, además de otros actores, al menos a dos partes del sector tecnológico, “a las empresas que crean y tienen modelos, aplicaciones y servicios con los que se puede producir contenido basado en audio, video e imágenes realistas con IA, y a las empresas que proveen servicios a los consumidores o usuarios para distribuir esos contenidos a las audiencias”.
Craig Holman, experto en ética gubernamental y financiamiento de campañas de la ONG Public Citizen, considera que al pacto hecho por las empresas “le falta mucho”. “En primer lugar, habrá varias plataformas de redes sociales. Firmas y grandes empresas tecnológicas que no cumplirán ningún tipo de reglas voluntarias. ¿Quién queda para hacer cumplir esas reglas si alguien quiere dejarlas pasar de todos modos, porque hay mucho dinero en juego?”.
”Esto no es algo que podamos confiar en que las grandes tecnologías regulen. Aplaudo el esfuerzo de las grandes empresas tecnológicas por reconocer que hay un peligro en esto y tener la capacidad de intentar realizar cierta autorregulación, pero la democracia no puede contar con las grandes empresas tecnológicas para salvarse, indicó a La Tercera el lobbista de asuntos gubernamentales.
Medidas
En la Unión Europea, la ley de IA fue aprobada en diciembre y aún no ha entrado en vigor. Esta es la primera legislación importante del mundo que regula estrictamente la inteligencia artificial. Ahora, la ley necesita la aprobación final del Parlamento Europeo, uno de los tres poderes legislativos de la UE, lo cual se prevé que suceda en abril. Si el texto permanece sin cambios, como esperan los observadores políticos, la ley entrará en vigor en 2026.
En China, el Partido Comunista prohibió el uso de ChatGPT en noviembre pasado y ha creado sus propias versiones, que están restringidas por la norma impuesta que limita la investigación, el desarrollo y el uso de IA generativas en todo lo que no se ajuste a los ideales del gobierno de Xi Jinping. La medida se produce en medio de temores de que las máquinas puedan dejar obsoletas muchas funciones humanas y de una creciente guerra comercial tecnológica entre la superpotencia asiática y Estados Unidos.
En Estados Unidos, las preocupaciones sobre cómo la IA podría distorsionar las elecciones están impulsando una serie de nuevas leyes, aunque los expertos dicen que los estados están avanzando más rápido que los proyectos de ley en el Congreso. En las primeras seis semanas de este año, legisladores de 27 estados presentaron proyectos de ley para regular los deepfakes en las elecciones, según el grupo de defensa progresista Public Citizen.
India anunció que tendrá reglas estrictas para responsabilizar plenamente a las grandes empresas de tecnología por el contenido deepfake que circula en las plataformas. Las elecciones generales del país comienzan en abril.
Holman indicó que 2024 se convertirá en el primer año electoral profundamente falso, en el que la IA influirá en los votantes e impactará los resultados electorales. “Ahora que la IA es sumamente convincente, es hora de que el público despierte y sea consciente de esto. Si usted ve algo escandaloso en algún anuncio de campaña, simplemente cuestiónelo y luego comience a preguntar a otros que probablemente estén investigando si es real o no”, emplaza el lobbista de Public Citizen.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.