¿Está en peligro la democracia en la era de IA?
Distintos países del mundo han explorado el uso de la inteligencia artificial en sus sistemas políticos. A pesar de eso, le preguntamos a tres especialistas internacionales: ¿Son estas herramientas un aliado confiable o una amenaza para los gobiernos?¿Cuáles son los desafíos éticos y democráticos a los que habrá que enfrentarse? ¿Hasta qué niveles deberían verse involucradas?
La interacción entre humanos ha cambiado debido a la tecnología. Telefonía, mensajería instantánea, internet y una larga lista de avances han hecho evolucionar la comunicación y la propia vida de la ciudadanía. Pero la inteligencia artificial (IA) ha emergido como un nuevo jugador y, aunque ayuda en determinados procesos en diversos sectores, hay quienes la han posicionado como un competidor riesgoso que incluso puede llegar a poner en riesgo los sistemas políticos y la democracia en sí.
Y es que distintas naciones en el globo se han aventurado a dar el paso tecnológico de la IA en las esferas del Estado y sus procesos.
Estados Unidos, por ejemplo, la ha utilizado en análisis de datos para mejorar la toma de decisiones en sectores como seguridad nacional y salud pública. China ha implementado sistemas de vigilancia basados en estos sistemas, usados para el mantenimiento del orden público y la seguridad. Singapur la ha explorado para mejorar la eficiencia en servicios gubernamentales, como atención al cliente y análisis de datos, y Estonia se ha enfocado en la digitalización, utilizándose para simplificar procesos administrativos y servicios electrónicos ciudadanos.
De acuerdo con el filósofo español Daniel Innerarity, quien fue parte de la la última edición de Congreso Futuro, la IA puede permear dos puntos relevantes. Uno es positivo y el otro, todo lo contrario.
El positivo tiene que ver con la conversación, mientras, que el negativo tiene que ver con la toma de decisiones.
“No hay democracia de calidad si no hay una conversación pública de calidad, y ahí hay dos temas: uno es cómo se está modificando la conversación, influida por las redes sociales y noticias falsas; el otro es la horizontalización de la conversación, que ahora se volvió menos vertical”, plantea el teórico.
En ese contexto, Claudia López, experta informática nacional, hizo un estudio en el que analizó las perspectivas de la población con respecto a las decisiones de la IA, frente a aquellas de los humanos.
¿La conclusión? Las personas que participaron creían que estas tecnologías llegaban a conclusiones más realistas, menos emocionales. Frente a esto, hay quienes creen que puede ser un peligro implementar estas herramientas en sistemas políticos o democráticos.
“Los humanos tenemos sesgos que están muy bien estudiados, con seis o siete errores básicos y, ante ellos, tenemos instrumentos, por ejemplo, algorítmicos, que pueden corregir no haber tomado en cuenta tal información”, acota Innerarity.
Pero también se han descubierto, por ejemplo y “con horror”, que los algoritmos tienen sesgos al ser impulsados por humanos. Así como un juez puede dictaminar tal o cual decisión según a qué hora de la mañana se realice un juicio, pues influye poco o mucho el hambre o cansancio, las máquinas caen en otro tipo de errores.
“Todo dependerá de de qué bases se tomen los datos para realizar las decisiones, qué tipo de diseño tenga el algoritmo y del proceso decisivo; no debemos olvidar de lo que nosotros entendemos por ‘justo’, porque existen conceptos más conservadores y otros más progresistas”, plantea. “Pensar que ese campo de batalla va a desaparecer gracias a la algoritmización de las decisiones es algo completamente ilusorio”, agrega.
Delegación de sensibilidad
Para Amador Fernández-Savater, filósofo español que también fue parte del Congreso Futuro, existen diversos riesgos de entregar capacidad de decisión a sistemas IA, que resultan de la combinación de mercado y tecnología.
“Esa combinación tiene la fuerza para diseñar nuestra experiencia de mundo”, acota el escritor. “Nos transportamos en Uber, alojamos en AirBnb, nos entretenemos por Netflix, nos informamos por Google y se liga por Tinder, y así cada persona se piensa como un mercado”, sugiere.
El problema de la democracia, dice, está en esa delegación de la producción y de experiencia de mundo en la combinación de tecnología y mercado.
“El problema no son los avances en sí, sino la propia tecnología conectada al mercado, ¿De qué manera la democracia podría jugar un rol respecto de incrementar la regulación? El verdadero problema es que las políticas públicas solo gestionan esta vida convertida en mercado”, afirma.
Quien tiene la iniciativa en la producción de la experiencia, de la forma de los usuarios de ver las cosas, de pensar en la felicidad y el trabajo “es la combinación de mercado y tecnología”.
“Ellos inventan cómo vamos a desear, a amar, trabajar, vivir, morir o entretenernos, y solo existen pequeñas regulaciones por parte de lo público: es una impotencia que en las poblaciones genera una gran decepción en contra de los gobiernos progresistas e incluso un voto en contra”, plantea Fernández-Savater.
“Muchos dispositivos hoy trabajan con algoritmos e inteligencia artificial, porque son maneras de diseñar nuestra experiencia humana... Y ahí el problema es la delegación de nuestra sensibilidad, de nuestra percepción y atención en dispositivos automáticos que prometen que van a pensar, decidir o escuchar por nosotros”, dice el filósofo.
¿Con qué motivo? La vida automatizada culminaría, en teoría, con la felicidad, seguridad y el bienestar. “Si entregamos a los automatismos nuestra capacidad de pensar, de sentir o actuar porque a veces no sabemos, dudamos o vacilamos, se pone en riesgo el cuerpo, los deseos, los afectos... ¿Puede hacerme match en Tinder con la persona perfecta? No, porque los seres humanos somos cuerpos afectivos”, propone.
La promesa de los algoritmos de poder saltar por encima de las incertidumbres que son propias de las personas significa la no asunción de los rasgos fundamentales de la condición humana, que son la vulnerabilidad y fragilidad.
“Entonces, la máquina nos dice: ‘Yo sé y puedo, así que entrégame todo lo humano que hay en ti y podré por ti’... Pero es así como nos volvemos prescindibles, totalmente desechables”, dice el filósofo.
¿La tecnología vuelve más individualista al humano? “Creo que sí, porque sometida al mercado, nos dice a cada uno ‘tú puedes solo’, mientras que necesitamos el vínculo con otros, hacer cosas y apoyarme en ellos... Si tengo un problema y no sé qué me pasa, pues necesito un amigo”, comenta.
Replantear los conceptos
Hoy la democracia está siendo fuertemente interpelada, dice Fernando Aramayo, coordinador del Programa de las Naciones Unidas para el Desarrollo en Bolivia. “No como un modelo de ejercicio de poderes del Estado, sino por la efectividad de las instituciones, los mecanismos de participación y representación”, dice el especialista, que fue parte del Congreso Futuro 2024.
Estamos frente a sociedades que son o han sido, de acuerdo a Aramayo, maleducadas a imagen y semejanza de las redes sociales, manipulables y que persiguen causas sobreemocionalizadas. Y es algo que también pasa por los algoritmos y la inteligencia artificial.
“Hay que preguntar quiénes son los dueños de los datos y cuáles son los principios éticos por los cuales ellos están operando, porque entonces nosotros tendremos que actuar como consumidores responsables, cuando los productores no actúan de forma ética”, apunta el especialista.
Para que las nuevas tecnologías y herramientas que aparecen en el mercado puedan funcionar correctamente en la sociedad, deben de cumplir con marcos regulatorios adecuados a los nuevos tiempos.
“¿Cuál es la ética para el siglo XXII, pensada desde el siglo XXI? Sería como seguir viviendo con la democracia y los partidos políticos del siglo XX. Hoy debemos pensar los valores, principios y la forma en la que regulamos un comportamiento ético... ¿Puede responder el siglo pasado, cuando tenemos que regular los comportamientos del futuro?” plantea.
Con el progreso, los sistemas políticos y cómo funcionan las instituciones han quedado ya obsoletos. ¿Se puede continuar con las mismas democracias? “No, porque hay que rever, representar, reinventar nuestras democracias, sus instrumentos y mecanismos”, acota Aramayo.
“La gente está influenciada por los algoritmos y por la burbuja informática, entonces... la noción de realidad también se está viendo alterada completamente. Lo que no vende, no aparece. Y es peor cuando eso que no vende, puede significar pausas publicitarias”, señala.
Los tiempos actuales, dicen, corresponden a los de la “Tecnopolítica”. “Entonces, nos están obligando a hablar de tecnodemocracia, tecnoderechos y de tecnocolectivismos, que son los aspectos que debemos empezar a reflexionar”, dice el especialista, quien además menciona que se deben incluir los denominados “derechos digitales”. El futuro ya no es lo que era, sugiere Aramayo, aludiendo a Stanley Kubrick,
“Siguiendo eso, obviamente los derechos no pueden ser lo que antes eran... Los derechos digitales deben plantearnos algo que en ‘2001: Odisea del espacio’ se nos mostró de manera clara: ¿Cuál es la línea roja que nos obligará a apretar el botón para apagarlo todo? Pero, ¿vamos a poder crear ese botón rojo?”, cierra.
Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.