Lo de “ver para creer” pierde su peso con rapidez. La inteligencia artificial (IA) trajo una serie de avances acelerados en la tecnología, pero también trajo una serie de desafíos que pone en jaque, incluso, la capacidad de discriminar entre lo genuino y la información creada para desinformar. Tal como se descubrió que Venezuela se ha esmerado en crear plataformas digitales que simulan ser medios de comunicación reales, pero que en realidad comparten información falsa a través de avatares creados por computador.
Un vocero de la organización Cazadores de Fake News, Héctor Mazarri, fue el que denunció ante el diario El País que el canal de Youtube, House of News Español, se trataba en realidad de un noticiario con caras y voces completamente desarrolladas con IA. Este tipo de programas realizados solo a través de la programación se conocen como “deepfakes”. Pero ¿Qué tanto pueden burlar la credibilidad de quienes vean este tipo de contenidos en la web? ¿Existe alguna forma de evitar la proliferación de discursos engañosos que son creados bajo el anonimato de un software de programación?
Y este será precisamente uno de los ejes temáticos del Pucón Learning and AI Summit 2024, el primer encuentro internacional que tratará de explorar la intersección entre la neurociencia y la inteligencia artificial (IA), con especial atención en los mecanismos de aprendizaje. Este evento proporcionará una plataforma para que los investigadores en IA y neurociencia experimental profundicen en los mecanismos del aprendizaje a nivel celular, sistémico y conductual.
El evento contará con 26 charlistas provenientes de 7 países, y pretende tener un impacto significativo en la productividad científica del futuro, tanto en el contenido, cómo en las potenciales colaboraciones. La IA está experimentando una aceleración que implica su ubicuidad en todas las esferas del quehacer humano. En particular, importantes herramientas y desarrollos que aplicamos hoy se inspiran en procesos cerebrales, tanto teóricos como demostrados. El despegue del Deep Learning (cómputo + data + modelos) representa una herramienta que permite acelerar el entendimiento del cerebro humano.
La Dra. Claudia López, investigadora principal de Cenia y académica de la Universidad Técnica Federico Santa María dice que este tipo de iniciativas es parte de la responsabilidad que tienen los centros y las universidades de abrir espacios de comunicación hacia la ciudadanía para que el conocimiento que se genera dentro de estos espacios de investigación informe la opinión pública y también informe la política pública eventualmente.
“Y esto es súper importante en la inteligencia artificial, porque hoy día ya tienen efectos, algunas de ellas, en la vida de las personas, no necesariamente pensándolo hacia el futuro solamente. Entonces, me parece muy importante y también necesario”.
El Dr. Iván Suazo, vicerrector de Investigación y Doctorados de la Universidad Autónoma, agrega que la inteligencia artificial está transformando rápidamente diferentes áreas del conocimiento y la industria, desde la medicina hasta la seguridad.
“Mantenernos al día con estos avances y fomentar el debate y análisis es fundamental para entender y adaptarnos a los cambios que esta tecnología trae consigo. Este evento, que organiza CENIA con el apoyo de la Universidad Autónoma de Chile, no solo busca informar sino también involucrar a la ciudadanía en la discusión sobre el impacto de la inteligencia artificial en nuestras vidas. Esta es una oportunidad única para acercar el conocimiento y generar conciencia sobre esta temática tan relevante en la actualidad”.
Deepfakes
Las deepfakes generalmente son videos, imágenes o audios generados que imitan la apariencia y el sonido de una persona. También se les conoce como “medios sintéticos” y muchas veces son tan convincentes para imitar lo real que puede engañar tanto a las personas como a los algoritmos. Son, en su mayoría generados por IA, y sus formas más comunes de aplicación son videos o como filtros de realidad aumentada.
En el caso de los videos de House of News, sus supuestos presentadores que hablan en inglés, parecen estar en un estudio televisivo y hablan con seguridad acerca de temas como la economía de Venezuela, son en realidad personajes creados con un software llamado Synthesia. Este programa, que cuenta con un centenar de rostros humanos, pueden reproducir a partir de un texto escrito un discurso con diferentes voces, acentos, idiomas y atuendos.
“Deepfake” como término proviene de la combinación de las palabras “deep learning” y “fake”, para representar algo falso que es el resultado de la tecnología de aprendizaje profundo. Si bien existe un mercado creciente de aplicaciones de consumo que utilizan tecnología deepfake para el entretenimiento, como FaceSwap, era cosa de tiempo que esto se implementara con fines no benévolos.
Además, este tipo de video están constantemente mejorándose y complejizando sus sistemas para burlar la percepción de la audiencia, o de otros algoritmos con inteligencia artificial que se encargan de detectar deepfakes. Utilizando el aprendizaje profundo y las redes adversarias generales (GAN) dos redes neuronales compiten entre sí, donde el objetivo de una es generar una imagen que la otra no podrá distinguir a partir de sus datos de entrenamiento, y el objetivo de esta última es evitar ser engañado de esta manera.
Según Eileen Culloty, académica de la Facultad de Comunicaciones de la U. de Dublín, desde que se propagó la desinformación en torno al Brexit en 2016, los investigadores han producido innumerables libros y artículos, los periodistas se han vuelto a capacitar como expertos en verificación y verificación de hechos, los gobiernos han participado en “grandes comités” y centros de excelencia. Además, las bibliotecas se han convertido en el centro de las estrategias de creación de resiliencia y ha surgido una variedad de nuevos organismos para brindar análisis, capacitación y recursos.
Y de acuerdo a la experta, la actividad no ha sido infructuosa. Ahora tenemos una comprensión más matizada de la desinformación como fenómeno social, psicológico, político y tecnológico. También son prometedores los esfuerzos para apoyar el periodismo de interés público y el cultivo del pensamiento crítico a través de la educación. En particular, las grandes empresas tecnológicas ya no pretenden ser plataformas neutrales.