Columna Cynthia Soto Cifuentes: Inteligencia Artificial y democracia, un gran desafío de nuestro tiempo

IA
Foto referencial: Getty Images.


La inteligencia artificial (IA) está transformando al mundo con grandes beneficios en la economía, la ciencia, la información y la educación. Y promete cada vez más valor en la política y la democracia, sea ayudando a visualizar datos y a interpretarlos o fortaleciendo la inclusión y la participación. Estados Unidos, Singapur y Estonia han dado pasos con la IA en el ámbito del Estado y sus procesos, en campos como la seguridad nacional, la salud pública, el análisis de datos y la eficiencia de servicios administrativos.

Sin embargo, los múltiples posibles usos maliciosos de la IA preocupan a autoridades, expertos y empresas. Inquietan hoy en particular la generación de imágenes y la clonación de voces para, por ejemplo, engañar a votantes en contextos electorales (o a la ciudadanía en general en otras situaciones). Imagine usted que descuelga el teléfono y escucha la voz (falsa, clonada, pero usted no lo sabe) del presidente, diciéndole que no vaya a votar porque ayuda a su contrincante. No, no es ficción y se trata de materiales difíciles de reconocer por ojos u oídos no entrenados -a veces hasta por la propia tecnología- y también de contener en el proceso de diseminación.

Pero hay noticias: la Comisión Federal de Comunicaciones de los Estados Unidos ha declarado ilegales las llamadas automatizadas que contengan mensajes programados y voces generadas por IA. Es decir, no se tolerará el uso malintencionado de tecnología para producir efectos políticos indeseables que dañen la democracia. Ya son varios los casos preocupantes, no sólo en los Estados Unidos. En las elecciones eslovacas de 2023, sin ir más lejos, apareció un audio falso usado para perjudicar a candidatos.

El engaño, la manipulación y la desinformación han existido siempre, pero con el avance tecnológico ha cambiado la capacidad para producirlos en cantidad y con altísima sofisticación, difundirlos instantáneamente y alcanzar a millones de personas en todo el planeta. Es así como las “fake news”, “deep fakes” y otros fenómenos recorren viralmente el globo.

Es verdad que los contenidos manipulados o falsos elaborados con IA podrían tener usos inofensivos o hasta positivos como en el arte, la publicidad o la educación, pero en política tienen un importante potencial de daño para la democracia y la fe pública al falsear la realidad, desprestigiar a personas y grupos y alentar la polarización y la desconfianza. Y así como la tecnología avanza aceleradamente, los actores malintencionados afinan estrategias, tácticas y métodos.

En Chile no somos inmunes a estos riesgos y amenazas y es aconsejable observar las experiencias en el mundo. En el grupo de trabajo de Ciudadanía digital: Responsabilidad, buenas prácticas y bienestar digital, parte de los Objetivos de Desarrollo Digital, nos ocupamos de este tema con información, ideas y recomendaciones, especialmente en cuanto a la alfabetización mediática, la participación en el espacio público y las habilidades para gestionar emociones, interactuar de manera positiva y fomentar la cooperación en línea.

Está claro que, además de políticas y reglas adecuadas, debemos fortalecer el acceso a las tecnologías y a la conectividad, el uso responsable y el desarrollo de conocimientos, habilidades y competencias para lidiar con información tan abundante como, a veces, de dudosa procedencia e intencionalidad. Ciudadanos digitales plenos ayudarán a proteger nuestra democracia, aumentar la participación y mejorar la toma de decisiones gubernamentales. Esto es responsabilidad de todos, incluyendo del Estado, empresas y sociedad civil. Y es, sin duda, uno de los grandes desafíos de la ciudadanía digital y de nuestra época.

Cynthia Soto Cifuentes, mesa de Ciudadanía Digital: Responsabilidad, buenas prácticas y bienestar digital, foro de Líderes de los Objetivos de Desarrollo Digital de Fundación País Digital. Gerenta de Sostenibilidad ClaroVTR.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.