Profesor de Oxford contra la inteligencia artificial: “Puede producir resultados sorprendentes en elecciones”

Philip Howard, profesor de la Universidad de Oxford y presidente del Panel Internacional sobre el Entorno de la Información (IPIE). Foto: La Tercera.
Philip Howard, profesor de la Universidad de Oxford y presidente del Panel Internacional sobre el Entorno de la Información (IPIE). Foto: La Tercera.

El sociólogo y académico canadiense, Philip N. Howard, habló con Qué Pasa sobre sus preocupaciones acerca de esta tecnología: sus riesgos, oportunidades, y la necesidad de regularla a medida que se vuelve cada vez más compleja.


“¿Cómo transcribirás esta conversación?”, preguntó Philip N. Howard (53) una vez terminada la entrevista. El profesor de la Universidad de Oxford y director del Programa de Democracia y Tecnología intuyó que la inteligencia artificial ya está instaurada en prácticamente todas partes. Tanto que incluso fue una máquina la que transformó el audio de esta conversación a texto, con traducción de inglés a español incluida.

Esta tecnología, con innumerables usos y aplicaciones, no deja de sorprender al académico canadiense por su explosivo avance, y al mismo tiempo no lo deja de preocupar por estas mismas razones. La influencia de los algoritmos en grupos políticos, con sesgos e influencias difíciles de prevenir, encienden las alertas de este investigador que busca crear una fuerza que pueda adelantarse a los posibles perjuicios de la IA y la influencia maliciosa en redes sociales.

Profesor de Oxford contra la inteligencia artificial: “Puede producir resultados sorprendentes en elecciones”

¿La inteligencia artificial debilita la democracia, pensando en la cantidad de desinformación y deepfakes que puede generar? ¿Es posible regular esta tecnología para que no nos pase por encima y después sea imposible ofrecer resguardos? Para saber eso, el también cofundador y presidente del Panel Internacional sobre el Entorno de la Información (IPIE) se encuentra en Chile, invitado por la Universidad Católica para entregar su mirada respecto a este tema.

Es autor de una decena de libros, donde incluye Lie Machines; Pax Technica y Online Society. En entrevista con Qué Pasa, Howard adelanta sus reflexiones y temores sobre la inteligencia artificial, los riesgos, oportunidades, y la necesidad de regular lo que se complejiza cada vez con mayor rapidez. Y sí, esta conversación fue transcrita con inteligencia artificial, pero validada por un humano.

Philip Howard
Philip Howard, profesor de la Universidad de Oxford y presidente del Panel Internacional sobre el Entorno de la Información (IPIE). Foto: La Tercera

-¿Cómo ve el impacto de la tecnología que puede hacer cambios en la democracia o en las políticas públicas?

Creo que las tecnologías tienen un papel muy importante que desempeñar en la creación de buenas democracias o en el debilitamiento de las prácticas democráticas. Así que hay múltiples ejemplos de tecnologías que han interferido con las elecciones o tecnologías que hacen que sea más fácil para la gente votar.

Y, por supuesto, no siempre se trata del día de las elecciones. Las tecnologías de la información proporcionan todas nuestras noticias e información durante todo el año. Por lo tanto, tener una buena dieta de fuentes diversas, fuentes de alta calidad, es muy importante para ser un ciudadano moderno.

-¿Crees que la democracia puede estar en peligro con el avance de estas tecnologías que tal vez no sepamos cómo funcionan?

A menudo se lanzan nuevas tecnologías sin pensar completamente en su impacto. Ahora bien, no siempre es posible conocer el impacto total de una tecnología, pero en este punto podemos decir que algunas de las características de diseño de los sistemas de redes sociales se aprovechan deliberadamente de nuestros sesgos cognitivos y nos impiden encontrar la información precisa que necesitamos antes de ir a votar, cuando tenemos que tomar una decisión importante. Esa interferencia es posible y sucede.

-¿Qué tan expuestos estamos a los sesgos de estas tecnologías, las redes sociales o a los algoritmos?

Hay un número creciente de ejemplos de sesgos a gran escala. Afortunadamente, creemos que atrapamos a muchos de ellos. Las empresas los atrapan, o las víctimas los atrapan, o nos enteramos de ellos a través de los tribunales. No creo que las tecnologías en sí mismas socaven por completo nuestras instituciones democráticas, pero pueden producir resultados sorprendentes durante las elecciones. Parecen tener un impacto en cuánto confiamos en los tribunales, el poder ejecutivo o la policía. Por lo tanto, hay consecuencias a largo plazo de las que debemos ser conscientes.

Computador
Imagen referencial.

-¿Y cuál es tu visión para el futuro de los estudios de ciencia y tecnología? ¿Crees que la investigación de estos temas tiene que ser más fuerte?

De eso se trata exactamente el IPIE. Somos el asesor científico de confianza del mundo en cuestiones de política tecnológica y una de las razones por las que hemos surgido es que tanto las empresas de tecnología como muchos gobiernos no han escuchado los consejos de los investigadores.

Y así, los investigadores dirán que la tecnología tiene un impacto en la salud mental, o los investigadores dirán que la sofisticación política ha disminuido, está empeorando. Pero las empresas de tecnología no rediseñan y los gobiernos no regulan o regulan en exceso, hacen una regla demasiado fuerte. O hacen reglas que están desactualizadas en un año porque la tecnología cambia. Por lo tanto, el desafío realmente es encontrar recomendaciones de la investigación aplicada que duren algunos años en el futuro.

-¿Cómo cree que están cambiando las redes sociales a las personas en el panorama político?

Creo que uno de los principales impactos está en el culto a la personalidad, por lo que un político puede usar las redes sociales para convertirse en el máximo influencer, ¿verdad?, y para crear una base de apoyo que sea más allá de las fronteras y muy intensa a nivel nacional para que la gente comience a confiar en un político como fuente de noticias e información.

Eso hace que sea fácil, desafortunadamente, cuando el político dice “no confíes en los medios de comunicación, no confíes en los expertos, no confíes en la ciencia”. Y eso crea estas culturas, pequeñas o en realidad bastante grandes, o cultos a la personalidad.

Philip Howard
Philip Howard, profesor de la Universidad de Oxford y presidente del Panel Internacional sobre el Entorno de la Información (IPIE). Foto: La Tercera.

-¿Quizás también podría estar cambiando la forma en que los políticos identifican los problemas?

Bueno, sí, y creo que una parte importante de eso es que nuestro consumo de noticias ha cambiado, ¿verdad? En promedio, ya no leemos periodismo de formato largo. Hay investigaciones que sugieren que seguimos consumiendo piezas periodísticas más pequeñas. 200 palabras, segmentos de 500 palabras, mientras esperas el autobús, mientras hablas por teléfono con tus padres. Así es como la gente consume las noticias.

-Y pensando desde el otro lado, ¿hasta qué punto las redes sociales han acercado a los ciudadanos al desarrollo de las políticas públicas?

Ese puede ser uno de los buenos resultados. La gente puede sentir que ahora participa activamente en la política, porque puede escuchar directamente a sus políticos favoritos, puede escuchar directamente a su equipo, al partido político que apoya. Ese sentido de participación es probablemente uno de los resultados positivos aquí.

-¿Cómo cree que la influencia de la inteligencia artificial, y sus sesgos, puede estar dando forma a las políticas públicas en el futuro?

Bueno, uno de los roles razonables para el gobierno es establecer algunos estándares para los grandes sistemas de inteligencia artificial que tienen un impacto en la salud de todo un país, la salud pública y el bienestar público. Hay un conjunto de cosas de las que los gobiernos se encargan por nosotros, y cada vez más se usa la inteligencia artificial para tomar decisiones sobre quién debe obtener un préstamo bancario o a quién se le debe ofrecer la oportunidad de un nuevo trabajo.

Por lo tanto, se utilizan algoritmos sofisticados para tomar ese tipo de decisiones sobre los recursos. Si se trata del sector privado, si este tipo de decisiones se toman de manera automatizada, debemos saber que no hay racismo ni sexismo en la asignación. Y para saber eso, para tener confianza en la tecnología, necesitamos saber un poco sobre cómo se construye la tecnología. En este momento, hay muy poca responsabilidad o transparencia sobre cómo se construyen o implementan esas tecnologías.

Deepfake

-¿Cree que es importante que los países vigilen cómo operan los algoritmos?

No estoy seguro de que haya ejemplos de IA que cambien la política a una escala como esa. Pero hay algunos ejemplos de anuncios políticos completamente falsos en los que una campaña utilizará la IA para generar un mensaje que el oponente nunca dijo.

-Han ocurrido muchos ejemplos de deepfakes en tiempos de elecciones, también...

Hay muchos ejemplos de deepfakes. La mayoría de los ejemplos que hemos visto son de que alguien los hace como ilustración. Pero en su mayoría, si haces un video deepfake e intentas ponerlo en YouTube o en TikTok, las plataformas generalmente pueden atraparlo antes de que se difunda por completo.

¿Cómo podemos controlar que la IA en el futuro no tome las decisiones por nosotros?

Bueno, eso se convierte en una decisión para nosotros. ¿En qué momento queremos dejar que la IA tome decisiones? Por el momento, no creo que la mayoría de los responsables políticos quieran ceder su papel a la IA. Pero puede haber algunos dominios de recopilación de datos en los que tenga sentido pedirle a una IA que ayude a encontrar nuevos patrones. Para ayudar a encontrar nuevos patrones.

Creo que la clave es que todavía no tenemos muchas pruebas sobre la relación entre la IA y la vida pública. Por lo tanto, vamos a reunir esas pruebas para poder presentarlas ante el Panel Internacional sobre el Entorno de la Información (IPIE).

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.