En octubre de 2018, un retrato generado en base a un algoritmo fue vendido en poco más de US$ 430.000 por la famosa casa de subastas Christie’s. “Portrait of Edmond de Belamy” es el nombre de la pintura creada por el colectivo parisino Obvious que tomó información de 15.000 retratos de entre los siglos XVI y XX para configurar el algoritmo que resultó en un cuadro de debatible calidad artística, pero que se transformó en un hito en la relación entre arte e inteligencia artificial.
“Es otra forma de expresión”, afirma Denis Parra (41), académico del Departamento de Ciencia de la Computación de la Universidad Católica e investigador del Instituto Milenio Fundamentos de los Datos.
Para este valdiviano, fanático del Ulises de Joyce y el rock progresivo, el arte y la IA se encuentran durante su doctorado en la Universidad de Pittsburgh, EE.UU., cuando comienza a trabajar en recomendación de documentos. “Si a un científico le interesaban ciertos papers, yo podía buscar automáticamente en una base de datos y encontrar otros artículos útiles para continuar su investigación. Cuando vuelvo a Chile, me contacta un amigo de la Universidad de California y comenta que una alumna está desarrollando un sistema para recomendar artistas musicales que utiliza las emociones”, agrega Denis.
El resultado fue MoodPlay. Lo que puede parecer un cuadro de Jackson Pollock a primera vista, se trata de un mapa de sugerencias musicales que utiliza el estado de ánimo que provocan estos artistas en el oyente, utilizando la reducción de dimensionalidad que aporta la IA. “La música de Queen, por ejemplo, despierta, entre otros sentimientos, ternura, nostalgia, pero también tensión en algunos casos. ¿Qué otros artistas provocan emociones similares sin importar el género? MoodPlay es una herramienta para explorar y conocer nuevos artistas con esta lógica”, dice el académico.
Arte, ciencia e ingeniería
Este proyecto propició, junto al profesor Rodrigo Cádiz −académico de los institutos de Música e Ingeniería Eléctrica de la PUC−, la creación del CreativAI UC Lab, grupo interdisciplinario de investigadores y estudiantes que desarrollaron TimbreNet: una red neuronal (de los modelos más “famosos” actualmente en IA) que es capaz de generar audio, nuevos sonidos o acordes y que puede servir como herramienta en la composición musical. “Algunos, incluso, sugieren que podría reemplazarla”, comenta Parra.
Por ejemplo, el año pasado, la Fundación Open AI −renombrado laboratorio de investigación en IA−, emitió una programación de 24 horas usando un modelo que “consumió” una gran cantidad de música y que luego generó sus propias composiciones. Algunas canciones sonaban bastante bien, pero otras no tanto. La generación de música con varios instrumentos (multitrack) tiene aún grandes desafíos por delante para ser compuesta de forma automatizada y de una calidad y creatividad razonables.
¿Entonces los computadores pueden hacer arte? “Hay quienes plantean que sí. Porque si tú escuchas un audio de estas características puede que no percibas que se trata de una máquina. Si para alguien el test de Turing, que determina si la interacción se realiza con un computador o una persona, es suficiente para decir que una máquina está haciendo arte, bueno, puede que así sea. Pero si para ti el arte tiene que ver con un mensaje que se desea transmitir, estamos hablando de otro tema. Podemos hacer la analogía con la fotografía, como plantea el investigador principal de Adobe Research Aaron Hertzmann, en un artículo llamado Can Computers Make Art? Cuando aparece la fotografía, muchos pensaron que era el fin del arte pictórico. Sin embargo, la fotografía trajo una nueva forma de arte e impulsó nuevas dimensiones en la pintura. Y estas nuevas formas o herramientas no reemplazan a los artistas. El artista es quien todavía tiene un mensaje para comunicar”, plantea Parra.
Mona Lisa y los Deep Fakes
Otra de las áreas que ha explorado Denis Parra en la relación entre arte y IA es la Transferencia de Estilo. “En nuestro caso nos interesó utilizar las imágenes del catálogo online del Museo de Bellas Artes. Tomamos una imagen y la red aprende cuál es este contenido para luego aplicar algún estilo que manipula colores o texturas de forma automática”.
La parte negativa de esta tecnología de manipulación son los deep fakes. Basta con cambiar una de las tantas imágenes del video, por ejemplo, y reemplazarla por el rostro de otra persona. “Incluso hay otras aplicaciones en las que se puede hacer un video de la Mona Lisa en movimiento con solo una foto de esta obra”.
Esta herramienta puede convertirse en una experiencia artística a través de la realidad virtual. “Uno de los proyectos que queremos desarrollar es la generación de museos de forma automática. Te pones el casco y luego se crea el espacio y además las pinturas personalizadas en tiempo real, según los intereses y gustos del usuario codificados en una red neuronal”, concluye el académico.