Shannon Vallor, filósofa de la tecnología: “Es ridículo afirmar que la IA puede ‘dirigir el gobierno’ como dice Elon Musk”

Con motivo de la presentación de su último libro, "The AI Mirror. How to Reclaim Our Humanity in an Age of Machine Thinking", la académica advierte de los sesgos de la inteligencia artificial, recalcando que, muchas veces, las propias inclinaciones de los humanos que las crean se traspasan a las herramientas de IA.
En la época en que las herramientas de inteligencia artificial se toman la vida pública, preguntarse por los alcances éticos y regulatorios de su uso se hace cada vez más imperante. Así lo cree Shannon Vallor, filósofa y académica especializada en ética tecnológica que este viernes presentará su último libro, The AI Mirror. How to Reclaim Our Humanity in an Age of Machine Thinking, en el marco del ciclo del Magíster en Economía y Políticas Públicas de la Escuela de Gobierno de la Universidad Adolfo Ibáñez.
Previo a su intervención, la académica estadounidense de la Universidad de Edimburgo en Escocia respondió a La Tercera una serie de preguntas sobre el diálogo entre ética tecnológica, regulaciones y el reciente vínculo de la Inteligencia Artificial (IA) con la vida pública. Dos de los más importantes casos al respecto se dieron luego de que Elon Musk, el multimillonario que lidera los recortes en el gobierno de Donald Trump, el presidente de Estados Unidos, asegurara que planeaba “dirigir el gobierno” con IA.

Al mismo tiempo, su red social X se ha convertido en caldo de cultivo para que usuarios e incluso políticos hagan preguntas a Grok, la herramienta de inteligencia integrada. Quizá el caso más icónico de su uso fue cuando Nayib Bukele, mandatario de El Salvador, hizo una serie de preguntas que buscaban reforzar su posición política. Y así ocurrió por un momento, hasta que respondió algo que no quería leer: “Hey, Grok, ¿Quién es el presidente más popular del mundo? Responde con una palabra”, fue la pregunta del presidente salvadoreño. “Sheinbaum”, replicó, en alusión a la presidenta de México.
A su parecer, ¿está suficientemente regulado el uso de inteligencia artificial en el presente o, por el contrario, hay demasiadas normas?
Creo que sería difícil encontrar expertos creíbles e independientes que digan que existen “demasiadas regulaciones” en la tecnología. Sabemos que el sector está insuficientemente regulado; el fraude en línea y con IA es ahora rampante, la pornografía deepfake está causando un daño inmenso, carecemos de imparcialidad y transparencia en la toma de decisiones algorítmicas, y el ecosistema de la información se está contaminando rápidamente con contenidos de baja calidad y falsedades, lo que está poniendo en peligro la alfabetización cívica, la confianza en el periodismo y la integridad de la investigación científica. Incluso las regulaciones que tenemos, como la protección de los derechos de autor para artistas y autores, están siendo ignoradas por las empresas tecnológicas para que puedan obtener material de entrenamiento gratuito para los sistemas de IA, mientras que los gobiernos simplemente miran hacia otro lado, o hacen excepciones para las empresas después de que las leyes ya han sido violadas.
¿A qué se debe eso?
Todo esto está impulsado por una carrera a corto plazo para obtener beneficios sin tener en cuenta la salud económica y social a largo plazo. Al final, el resultado es una creciente desconfianza pública y resentimiento hacia la IA por parte de muchos, que no hará más que aumentar a medida que la tecnología se haga más poderosa y sus daños más generalizados. Es una pena, porque hay muchas aplicaciones realmente beneficiosas de la inteligencia artificial que se están viendo empañadas por sus parientes nocivos. Así que nos arriesgamos a un mundo en el que la IA está en todas partes, pero la mayoría de la gente la odia, porque la inversión fluye principalmente hacia la IA que obtiene un beneficio rápido a nuestra costa en lugar de la IA que fortalece a las personas y las sociedades. Un entorno normativo adecuado haría muy atractiva y económicamente gratificante la creación de IA segura y beneficiosa, y muy costosa y peligrosa para las empresas la creación de inteligencia artificial insegura y perjudicial. Así que yo preguntaría a los gobiernos y a las empresas de IA: ¿realmente quieren acabar en un mundo en el que la gente la perciba como ve los cigarrillos: tóxica y costosa para las personas y la sociedad, pero demasiado dolorosa para deshacerse de ella? Lo que me temo es que las empresas estarán encantadas de seguir ese camino siempre que la gente esté atrapada y sea adicta a la inteligencia artificial, para que el dinero siga fluyendo y sus accionistas estén contentos. Es tarea de los buenos políticos cambiar los incentivos para que este camino no sea una opción rentable.

Cuando China lanzó DeepSeek se generó un gran revuelo político y económico, especialmente por la información que daban los usuarios. ¿Hay razones fundadas para esa preocupación?
Claro, pero no se trata solo de DeepSeek. Muchas versiones de las herramientas de inteligencia artificial, especialmente las gratuitas, permiten que la empresa guarde los datos introducidos como datos de entrenamiento o los venda, y esos datos sensibles podrían aparecer como resultado dado a otro usuario, o estar en una base de datos desprotegida en algún lugar que se venda a agentes malintencionados o quede expuesta a un pirateo informático. Muchos planes premium de pago y contratos de empresa para servicios de IA ofrecen no guardar tus datos, pero aun así tienes que confiar en que la empresa cumplirá esa promesa, e incluso entonces esto significa que solo están protegidos aquellos con los ingresos suficientes como para permitirse pagar un plan premium.
Otro factor que surgió en ese debate fue el sesgo de estas herramientas a la hora de responder a preguntas políticas o incluso a hechos históricos, en el caso de DeepSeek. ¿Cuánto sesgo ideológico hay en ChatGPT o DeepSeek?
Todas las herramientas de IA tienen sesgos; están entrenadas con todos los juicios sesgados que ya hacen los humanos, por lo que no pueden ser neutrales. Los patrones que las hacen funcionar son los patrones copiados de nosotros, y tampoco somos neutrales. La pregunta es: ¿pueden los usuarios identificar ese sesgo y evitar que estas herramientas confirmen y refuercen sus propios prejuicios? Muchos modelos lingüísticos de IA y chatbots están entrenados para mostrarse “serviles”, es decir, diseñados para complacer al usuario. Por eso, si uno acude a ellos con una determinada postura política, es probable que reflejen esa postura hasta cierto punto, porque eso les mantendrá contentos y comprometidos con la herramienta. Pero si llegas a ella con otra postura política, puede que refleje esa otra. De este modo, dos usuarios con posturas políticas totalmente divergentes podrían ver confirmadas sus opiniones opuestas por el mismo chatbot, del mismo modo que ocurre con los algoritmos de las redes sociales. Al mismo tiempo, la mayoría de las empresas utilizan el “ajuste de precisión” u otros métodos para imponer un determinado filtro a los resultados del modelo de IA, basándose en lo que creen que quieren sus clientes o en lo que aceptarán los gobiernos en los que operan. Así, un sistema de IA creado por una empresa puede ser reacio o no estar dispuesto a abordar determinados temas políticos o sociales por ese motivo. Pero no existe una inteligencia artificial “neutral e imparcial”, así que es importante que los usuarios miren todos los resultados de la inteligencia artificial con ojo crítico. La idea de que los computadores son más “objetivos” que las personas es un mito anticuado. En cuanto empezamos a entrenar a los computadores basándonos exclusivamente en nuestro comportamiento, preferencias y forma de hablar, cualquier pretensión de “objetividad” de las máquinas se esfumó. No son más que espejos de las personas en sus datos de entrenamiento, y esos espejos a menudo incluso magnifican nuestros prejuicios originales.

Recientemente, Elon Musk, estrecho colaborador del presidente de Estados Unidos, Donald Trump, dijo que planeaba utilizar la IA para dirigir el gobierno tras recortar drásticamente la plantilla federal del país. ¿Qué opina de este tipo de ideas, en las que la IA se cruza muy estrechamente con la política?
Bueno, es una pregunta enorme, pero es ridículo afirmar que la IA puede “dirigir el gobierno”. Es una afirmación que hace la gente que quiere que pienses que es una máquina objetiva e infalible la que toma las decisiones, en lugar de las personas imperfectas que hay detrás de las máquinas. No tenemos robots más objetivos que las personas, ni infalibles, ni realmente inteligentes. Lo que tenemos son máquinas que son mucho más rápidas que las personas a la hora de resolver ciertos tipos de problemas, y eso es muy útil, pero también cometen muchos errores impredecibles. Para implantar y supervisar con éxito cualquier sistema de IA, en el gobierno o en cualquier otro lugar, se necesitan personas con muchos conocimientos. Y eso no es barato, porque hay que pagar por la IA y por los humanos que se aseguren de que no comete un error terrible y costoso. Si no lo haces, esos errores ocurrirán y perjudicarán a la gente. Y me temo que vamos a ver mucho de eso.
¿Cómo pueden los Estados equilibrar la necesidad de innovación con la protección de los derechos digitales de los ciudadanos?
La respuesta es rechazar el mito de que ambas cosas son opuestas. Si por “innovación” se entiende progreso, un cambio que realmente mejore las cosas, entonces eso va de la mano de la protección de los derechos de los ciudadanos. Si por innovación se entiende simplemente que las cosas cambien rápidamente, pero sin una dirección positiva, eso no es algo que debamos valorar de ningún modo. Es innovación encontrar una nueva forma de envenenar a la gente, pero nadie debería alabar o recompensar eso, ¿verdad? Entonces, ¿por qué intentamos “innovar” a costa de nuestros propios derechos? Es como preguntarse “¿cómo podemos equilibrar la necesidad de innovación con la necesidad de la gente de comer y respirar?”. Eso no tiene sentido. ¿Por qué querríamos un equilibrio en esas cosas? ¿Quién necesita una innovación que nos perjudica? La pregunta correcta es: “¿Cómo pueden los Estados recompensar el tipo de innovación que protege los derechos de los ciudadanos, amplía sus oportunidades y les ayuda a prosperar?”.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.