Un grupo de gigantes de la tecnología se comprometió a tomar medidas para evitar que la inteligencia artificial (IA) interfiera en las elecciones que se desarrollarán en 2024 en distintos países del mundo.
El acuerdo se anunció en febrero de 2024 en Alemania, en el marco de la Conferencia de Seguridad de Múnich (MSC, por sus siglas en inglés).
Entre la veintena de empresas que se adhirieron se encuentran nombres de las Big Tech como Google, Meta, Microsoft, TikTok y OpenAI.
Además de otros como Adobe, Amazon, Anthropic, ARM, ElevenLabs, Gen, GitHub, IBM, Inflection AI, LG AI Research, LinkedIn, McAfee, NetApp, Nota, Snap, Stability AI, TrendMicro, TrueMedia, TruePic y X.
El objetivo de esta medida es establecer acciones para neutralizar contenidos generados con IA que podrían “poner en peligro la integridad de los procesos electorales”.
Dentro de estos se incluyen los deepfakes, es decir, imágenes que son creadas con esta tecnología y que se usan para engañar deliberadamente. En este caso, a votantes.
A pesar de que el acuerdo no considera explícitamente la eliminación o prohibición de estos contenidos, sí plantea el desarrollo de herramientas para detectarlos, monitorearlos y clasificarlos.
El presidente de la MSC, Christoph Heusgen, manifestó tras el anuncio que el foro “se enorgullece de ofrecer una plataforma para que las empresas tomen medidas para controlar las amenazas que emanan de la IA y al mismo tiempo la empleen a favor del bien democrático”.
Se trata de un pacto que llega en medio de los acelerados avances de la IA y en un año en el que, según cifras rescatadas por Wired, 4.000 millones de votantes están (o ya fueron) citados a manifestar sus preferencias en las urnas.
Aquello se traduce en alrededor de un 51% de la población mundial.
“Todo el mundo reconoce que ninguna empresa tecnológica, ningún gobierno y ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefasto”, dijo el presidente de asuntos globales de Meta, Nick Clegg, en una entrevista previa a la conferencia, según rescató Los Angeles Times.
Por su parte, el presidente de asuntos globales de Google, Kent Walker, recalcó en la instancia que “la democracia se basa en elecciones seguras y protegidas”.
“No podemos permitir que el abuso digital amenace la oportunidad para mejorar nuestras economías, crear nuevos empleos e impulsar el progreso en salud y ciencia. Se necesitan medidas concretas y cooperativas para proteger a las personas y a las sociedades de los riesgos amplificados del contenido engañoso generado por IA”, enfatizó.
Qué dice el acuerdo para evitar que la IA interfiera en las elecciones mundiales
Desde la MSC detallan en un documento oficial que el acuerdo consiste en “un conjunto de compromisos para implementar tecnología que contrarreste el contenido dañino generado por IA destinado a engañar a los votantes”.
“Los firmantes se comprometen a trabajar en colaboración en herramientas para detectar y abordar la distribución en línea de dicho contenido de IA, impulsar campañas educativas y brindar transparencia, entre otras medidas concretas”, añaden.
Además, destacan que incluye “un amplio conjunto de principios, incluida la importancia de rastrear el origen del contenido engañoso relacionado con las elecciones y la necesidad de generar conciencia pública sobre el problema”.
“Es un paso importante para proteger a las comunidades en línea contra el contenido dañino de IA y se basa en el trabajo en curso de cada empresa”, precisan en el escrito de la MSC.
El material al que se refieren contempla “audio, video e imágenes generados por IA que falsifican o alteran engañosamente la apariencia, la voz o las acciones de candidatos políticos, funcionarios electorales y otras partes interesadas clave en una elección democrática”.
A estos se les suman los contenidos que “brindan información falsa a los votantes sobre cuándo, dónde y cómo pueden votar”.
Cuáles son los 8 compromisos concretos que adoptaron las empresas
- Desarrollar e implementar tecnología para mitigar los riesgos relacionados con el contenido electoral engañoso basado en inteligencia artificial, incluidas herramientas de código abierto cuando corresponda.
- Evaluar los modelos en el ámbito de este acuerdo para comprender los riesgos que pueden presentar con respecto al contenido electoral engañoso basado en inteligencia artificial.
- Intentar detectar la distribución de este contenido en sus plataformas.
- Intentar abordar adecuadamente este contenido detectado en sus plataformas.
- Fomentar la resiliencia intersectorial ante el contenido electoral engañoso basado en inteligencia artificial.
- Brindar transparencia al público sobre cómo la empresa lo aborda.
- Seguir interactuando con un conjunto diverso de organizaciones de la sociedad civil y académicos globales.
- Apoyar los esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.
Cuáles son las críticas que se han hecho a la medida
A pesar de que el acuerdo fue ampliamente celebrado en la conferencia, algunos grupos y organizaciones de activistas del área tecnológica han criticado que no contempla fechas concretas sobre su aplicación ni mecanismos para verificar que los compromisos efectivamente se cumplan.
La directora senior del Proyecto Elecciones del Centro de Políticas Bipartidistas, Rachel Orey, declaró a la agencia AP tras el anuncio que “el lenguaje no es tan fuerte como uno podría haber esperado”.
“Deberíamos dar el crédito donde corresponde y reconocer que las empresas sí tienen un interés en que sus herramientas no sean utilizadas para socavar elecciones libres e imparciales. Pero se trata de un convenio voluntario y estaremos atentos a ver si se cumple”, subrayó la representante de la organización sin fines de lucro.