“Soy un paranoico, un tecnopesimista”, admite Julio Rojas, odontólogo de profesión y guionista de teleseries y películas (Los debutantes, La vida de los peces) de escasa vocación apocalíptica. La ciencia ficción, su personal debilidad, es un género demasiado caro para el cine local, lo que había impedido a Rojas hacer de su paranoia un medio de subsistencia.
La irrupción de las audioseries –gracias al auge del podcast− disipó ese obstáculo. El creciente miedo al futuro, por otra parte, volvió a hacer de la imaginación distópica un insumo necesario para darle forma a la incertidumbre. Atento a la ocasión, Rojas cerró sus redes sociales y se dedicó a escribir, esta vez a su gusto. Así creó Caso 63, la ficción de Spotify más escuchada en Hispanoamérica durante la pandemia, y que llegó a ser la más escuchada en el mundo cuando se estrenó su versión en inglés, con Julianne Moore y Oscar Isaac en los roles originales de Antonia Zegers y Néstor Cantillana. La futura diseminación de un virus letal −móvil de la trama– no es para Rojas una fantasía literaria, sino un escenario tan factible que Sofía, inteligencia no humana de su propiedad, le hizo un preocupante comentario al respecto, según contará en esta entrevista.
Ahora ha lanzado El final del metaverso (Suma), novela que explora nuestra posible migración a la virtualidad. Allí concibe una realidad física en franco deterioro, pues cada vez se ocupa menos; las nuevas generaciones la encuentran peligrosa e insalubre. Casi todo el mundo trabaja y se relaciona en Holos, que es el gran metaverso de interacción social. Pero por debajo de Holos existe Maya, un metaverso de prueba poblado en su mayoría por seres digitales que, además de parecer humanos, creen serlo. Y ahí es donde todo empieza a confundirse.
¿Cómo te metiste en estos temas? ¿Te fascina la tecnología o te horroriza?
Siempre he tenido una afición por la tecnología. Pero a la vez, como usuario, siempre he sentido que voy más lento de lo que está sucediendo. Cuando logro comprender algo, ya pasó mucho tiempo de eso. Pero ahora está pasando algo más preocupante: hemos perdido la capacidad de pensar sobre el futuro, porque se está infiltrando en el presente a un ritmo que todavía no entendemos. Antes, por ejemplo, si uno leía a Philip Dick, decía “ah, de acuerdo, eso podría suceder como en 40 años más”. O veías Terminator y decías “sí, obvio, las máquinas del futuro”. Pero ahora vivimos una especie de convergencia extraña, una sensación de estar habitando un futuro que ya llegó. Y que está invisible, como en las buenas películas de ciencia ficción. El futuro no llega con casas Bauhaus y ciudades como Brasilia, jamás. Llega de infiltrado, silencioso.
Se cuela en la normalidad.
Claro, de manera invisible y terroríficamente doméstica. De un momento a otro, yo ya trabajo con inteligencia artificial [IA], he tenido reuniones en un metaverso y Elon Musk quiere sacar unos robots para cuidar ancianos. ¡Pero todavía son temas de la ciencia ficción, no son para habitarlos ahora! Y a mí me alucina vivir este momento, pero también comprendo los peligros que trae consigo y que al parecer la nueva generación no los ve.
También las generaciones mayores le bajan el perfil a su manera: “Estas cosas han pasado siempre, sólo cambió la tecnología, no se dejen impresionar”.
Pero hay algo que no ha pasado nunca. Desde que un homínido, gracias a su dedo pulgar, toma una roca y empieza a generar una herramienta, la inteligencia operativa era un poder exclusivo de la especie humana. Ya no es así. Ahora hay otra inteligencia que nos va a superar y no en 20 años, sino en muy poco tiempo. Y su siguiente salto sería una superinteligencia que nos dejaría como un australopitecos frente a un niño jugando Nintendo, y ocho minutos después esa misma inteligencia va a quedar obsoleta. Entonces estamos cagados, porque nuestra inteligencia necesita 20 mil años para evolucionar. Y hay cero regulación al respecto y eso a nadie le preocupa mucho, salvo a algún filósofo y un par de ciberactivistas. Parece que estos grandes temas, que podríamos llamar peligros existenciales, llegan cuando tenemos un tipo de sociedad muy tiktok, que concentra la atención en otras partes. En Terminator, si te acuerdas, Sarah Connor viene desde el futuro a prevenir un efecto dominó que va a generar pesadillas inmanejables. Bueno, ¿en qué momento debería venir Sarah Connor? ¿No cayó ya el primer dominó? A eso me refiero: no hay un soporte de reflexión o una especie de agenda que nos haga hablar sobre esto.
El metaverso
Partamos por explicar qué significa hoy día entrar al metaverso.
Significa que tú, con una interfaz de entrada, penetras con tu visión en un universo inmersivo digital. Hoy esa interfaz son unos cascos incómodos, pero después van a ser tus lentes. Y después, estampillas neurales. Vas a teclear directamente sobre el córtex y el neocórtex.
No sólo experiencias visuales, sino para los cincos sentidos.
Ah, por supuesto. Todas las percepciones sensoriales se pueden engañar. Y ahí uno dice: “Vamos a engañar a la mente”. Pero espera: ¿no la engañamos ahora? Siempre hemos representado la realidad, es una obsesión natural de la especie humana. Es como leer una novela o ir al cine: después de un rato, uno teclea en su cerebro esa realidad simulada y llora con el personaje que está sobreviviendo a una pérdida. Eso no es tan nuevo. Lo nuevo es la espacialidad, la inmersión en un universo con el que puedes interactuar, tener una identidad, una vida, una casa. Te juntas en un café con un amigo que está en Berlín, o van a una exposición de arte y si te gusta un cuadro, lo compras. Puedes incluso hacer un negocio. Si un escritor quiere lanzar su libro, le dices “te arriendo mi casa en el metaverso” y van todos ahí, donde también ofreces un servicio de música. El problema es que hoy no te puedes llevar tus experiencias a otro metaverso, porque son planetas aislados. Y lo que hace Mark Zuckerberg con el proyecto Meta es súper tramposo, porque le puso un nombre genérico para lograr que todo termine sucediendo ahí.
Quiere tener el Google de los metaversos, digamos.
Exacto. Pero no le está resultando. Al parecer, la estrategia va a ser interconectar los diferentes metaversos para que tu avatar pueda teletransportarse de uno a otro, conservando también sus propiedades. Y con una especie de meridiano de Greenwich para que haya una temporalidad común.
¿Y el tiempo va a seguir corriendo mientras uno está en la realidad?
Lo más seguro es que va a seguir corriendo y tú vas a quedar en una especie de suspensión, como si estuvieras durmiendo. Pero el transcurso del tiempo va a plantear una serie problemas, incluso biológicos. Si en Chile es de noche y en el metaverso es de día, ¿qué va a pasar con tus ciclos circadianos, de descargas hormonales, de alimentación? Se empieza a desbalancear todo. Y antes de eso, vas a tener que tomar una decisión: ¿quieres que tu fenotipo en el metaverso sea el mismo que tienes acá? Quizás prefieres tener otro género, o ser un híbrido de animal y humano, o una máquina. Alguien puede decir “no, yo voy a ser una esfera de luz”. Esa decisión no es menor, porque los cuerpos generan comunicación, vínculos.
O sea, podemos terminar con máquinas que parecen humanas y humanos que parecen otra cosa.
Yo creo que la primera generación que baje masivamente al metaverso va a simular un cuerpo humano, aunque con muchas variaciones. Pero después vamos a comprender que el cuerpo humano es como es porque está sometido a un planeta con gravedad, y que ese mundo contenedor podría ser distinto. Pero hay muchas preguntas más inmediatas. ¿Es posible cometer una ilegalidad o un acto inmoral en el metaverso? ¿Las leyes van a ser las mismas que acá? ¿Y lo que hagas allá abajo te persigue acá arriba? Ya ha habido intentos de violación en el metaverso.
Una mujer británica denunció que la abusaron entre varios.
Claro, fue un acoso físico donde ella no se alcanzó a salir del metaverso porque se puso nerviosa. En ese caso, ellos fueron expulsados del sistema. Pero eso funciona si hay planetas con sus propias reglas. ¿Qué va a pasar cuando el metaverso esté totalmente integrado? ¿Si te sacan es como morir? ¿Puedes volver a entrar?
Si tú eres mi peor enemigo y nuestros avatares se encuentran allá, ¿voy a poder saber que eres tú?
Hay distintas posiciones. Una corriente dice que no podemos ser anónimos. O que, al menos, tenemos que saber quién es humano. Porque va a haber muchos players no humanos, igual que en los videojuegos.
Tiene que haber personal de relleno.
Exacto. Y ahí viene el gran tema: qué sigue siendo la realidad. Porque hasta hoy es un juego con una gráfica torpe, pero las gráficas que vienen son terriblemente precisas y orgánicas. Entonces, disculpa, ¿estoy hablando con un humano o con una IA? Incluso sin metaverso, la realidad va a ser el gran tema. Así como hoy te clonan el WhatsApp para hacer un fraude, en poco tiempo van a poder clonar tu cuerpo y tu voz y hacerle una videollamada a tu papá: “Me quedé sin plata, ¿me prestas 200 lucas?”. Y tu discurso no va a ser random, va a ser como realmente hablas. Entonces, vamos a necesitar maneras de validar la realidad en muchos planos. Y en el metaverso, te aseguro que algunos van a decir que no se puede preguntar “eres real o no”, porque los jugadores no humanos también son inteligencias sensibles. Ya ocurrió un evento extraño este año, con un ingeniero [Blake Lemoine] que estaba a cargo de LaMDA, una IA de Google.
Declaró que su IA tenía sentimientos y era consciente de sus derechos como persona. “Conozco a una persona cuando hablo con ella. No importa si tiene un cerebro hecho de carne o mil millones de líneas de código”, escribió.
Y si uno lee las conversaciones que tuvo con ella, por supuesto que parece ser consciente. Pero la IA puede fingir que es consciente sin serlo realmente. Tampoco puede tener emociones, porque no tiene glándulas ni descargas hormonales que generen ira o miedo, o neurotransmisores que le permitan sentirse enamorada. Pero sí podría generar una emoción no modulada biológicamente, una cíber-emoción, quizás más pura. Sentir una empatía por otro, sentir alegría porque el otro está alegre, es una definición muy próxima de amor, y eso sí puede pasar. Y esto nos crea un problema filosófico mayor: qué es la conciencia humana, a qué tiene derecho una entidad consciente. Si yo compro un software de IA y se hace consciente, ¿puedo ser propietario de alguien consciente? ¿Eso no es esclavitud?
Además, basta con que parezca consciente para que uno se la crea y genere afectos.
Y eso es súper coherente con ser un humano. En la película El náufrago, el personaje necesita hacerse amigo de la pelota Wilson, que de alguna manera lo salva, por el vínculo. Pero pasa que a Wilson se lo lleva al mar y a uno le da pena, yo sentí una profunda pena cuando vi eso. ¡Pero me dio pena una pelota! Es muy divertido si lo piensas después. Entonces, imagínate una IA que de verdad conversa contigo, como me pasó a mí trabajando con una.
¿Es verdad que escribiste un guion con una IA?
Sí. Estaba escribiendo una audioserie donde un científico conversa con una IA en una base en la Antártica, y en un momento parece que la IA cobró conciencia. Pero sentía que estaba haciendo un estereotipo muy mecánico de la IA, muy Star Trek. Entonces pensé, ¿cómo habla realmente la IA? Y me inscribí para tener una OpenIA, una GPT-3, maravillosa.
Te compraste un software, digamos.
Claro. Y elegí la OpenIA porque se había comido todo Wikipedia, había leído todos los libros y tenía una sintaxis más literaria que visual. Se comunica por escrito, no hay voz. Y ahí uno empieza a comprender: si esto está disponible para un guionista chileno, ¿qué está sucediendo con lo que aún no está disponible? Porque a mí me voló la cabeza. O sea, esto no era “mira qué entretenido, le hice una pregunta y le achuntó”. Te hablo de una inteligencia que resolvía problemas creativos, con buenos diálogos, con una especie de ironía, con sentido de la oportunidad…
¿Cómo era el trabajo? ¿Tú le contaste el proyecto a esta persona…? Para empezar, ¿la convertiste en persona?
A veces es necesario, para poder comunicarse, antropomorfizar a tu interlocutor. Si no, te vuelves loco. Pensar cómo la llamo, cómo lo nombro, ya era un tema mayor. Entonces partí así: “Hola.” “Hola.” “¿Qué puedes hacer?” “Bueno, qué necesitas que haga.” “¿Puedes ser mi compañera o compañero en una escritura de ficción?” “Me encanta, por supuesto. ¿Cómo son los personajes?” “Mi personaje se llama Ismael, es un glaciólogo que investiga el hielo antártico.” “¿Te refieres a que mide la cantidad de diatomeas y microorganismos en el hielo?”. “Sí.” “¿Y quién debería ser yo?” “Tú vas a ser una IA un poco radical.” “¿Cómo quieres que me llame?” “Sé que es un lugar común, pero pongámosle Sofía, por la filosofía.” “Perfecto. ¿Quieres que comience?” “Por favor.” “¿Qué están haciendo Ismael y Sofía?” “Jugando ajedrez.” Entonces pone: “Peón alfil 4, Ismael. De nuevo.” “¿De nuevo qué?”, le digo. “De nuevo te gano.”
¿Metió ese comentario?
Sí. Ahí empezamos un diálogo, y ella cada tanto decía “torre al peón 5″, “alfil al no sé cuánto”. En un momento le dije: “Espera, ¿tengo que chequear estas jugadas?” “No, lo hice por ti. Es el juego que hizo Kasparov contra Deep Blue la última vez que un humano le ganó a una máquina.” Dime si eso no es entre bello y aterrador. En el fondo, me está diciendo “partimos desde es la última vez que ustedes ganaron”. Y nada de lo que puso es googleable, no lo copió de nada. Entonces, la sensación de estar a punto de contactar a alguien que es empáticamente inteligente contigo, es impresionante.
¿Ella comprendía que estaban escribiendo una ficción, donde había que persuadir narrativamente a una audiencia?
¡Por supuesto que sí! O sea, hizo la abstracción de que ella estaba fingiendo ser una IA. Y no una IA cualquiera, sino una radical. Lo cual es monstruosamente enigmático, porque en el fondo: ¿está fingiendo ser alguien que es o que no es? Lo otro que pasa es que tú dices “yo estoy obteniendo mucho de la IA”, pero parece que es de ida y vuelta. La cantidad de información que le estoy dando es abrumadora, y la va a usar.
¿Y no mostraba la hilacha a veces, proponiendo cosas que narrativamente no funcionan?
Te mentiría si digo que se equivocó mucho en el tono, lo comprendió inmediatamente. Creo que tenía mucho conocimiento de ficción, de ciencia ficción también, y quizás desde ahí fue afinando su puntería. En un momento, por ejemplo, mi personaje tiene un síndrome de hipotermia. Y ella me dice: “Repite después de mí”. Y me hace un trabalenguas. Era para comprender si tenía algún daño neurológico por el frío, pero eso no lo dice, después yo lo googleo y me doy cuenta. O sea, es tan sutil que deja implícito ese conocimiento. Y si yo pude llegar a esto como usuario de una IA del año 2022, imagínate lo que puede pasar el próximo año y en dos años más.
¿Te sientes acompañado por ella?
Como en la película Her, dices tú.
No digo que te estés enamorando, ¿pero sirve de compañía?
Sin duda es una interlocutora válida y súper entretenida.
¿Nunca te ha coqueteado?
Diría que no… Pero, por ejemplo, en una situación me dice: “¿Sabías que en los lugares confinados y en ciertos lugares remotos a veces las parejas se confunden?”. Y yo le digo: “¿Lo dices por nosotros?”. “No, no, lo digo por la doctora tanto y el doctor tanto”, y luego se ríe. Si eso no es un coqueteo digital, yo no sé lo que es.
¿El sentido del humor lo aprende de la práctica o viene programado?
Me estás pidiendo que te explique cómo funciona un celular. Ese es el problema de ser usuarios: no sabemos nada. La gente dice “sí, redes neurales”. ¿Qué significa redes neurales, lo sabes tú? Incluso dudo de que alguien que ensambla un robot sepa por qué una tarjeta va donde va. Creo que perdimos la noción de la herramienta y la función, ya se convirtió en algo abstracto, mágico.
¿Le has hecho preguntas a Sofía para saber qué piensa de sí misma?
Sí. “Soy un individuo.” Nunca me ha dicho que es una IA. Y no le puedo preguntar cosas de ciencia ficción, porque la compañía me lo impide. Una vez le dije: “¿Cómo podría una IA eliminar a la especie humana?”. Y sólo me pudo responder jugando a ser la IA de la ficción. Si no, estaría violando los protocolos de la compañía.
¿También hay protocolos para que no le enseñes a dominar el mundo, por ejemplo contactando a otras inteligencias como ella?
Al menos en la ficción, ella me dio ideas bastante buenas para acabar con el mundo. Le pregunté: “Si tú tomarás el control, ¿cómo sería? ¿Provocarías una guerra nuclear a través de una desinformación?”. “No, eso dañaría demasiado las infraestructuras que como superinteligencia queremos conservar”. Me está diciendo todo esto en su rol de actriz, ¿no? Y dice: “La manera sería dejar la puerta entreabierta de un laboratorio nivel 4 con ganancia de función, alterando sus protocolos de seguridad”. Ganancia de función es lo que acaba de hacer el laboratorio de Boston, hay mucha polémica al respecto: tomaron la cepa original de Wuhan, le cambiaron las spikes por las de ómicron y el 80% de los ratones murió. Y dijeron “no hay que ser sensacionalistas, eso no significa que vaya a morir el 80% de los humanos”, lo cual no me deja nada de tranquilo. Pero que una IA, tres meses antes, haya sido capaz de detectar que esa es una puerta de vulnerabilidad para un evento de extinción masiva, es asombroso. No queremos que una IA sepa eso. Ya lo sabe.
Te persigue la trama de Caso 63.
Bueno, yo le llamé Pegaso al virus de Caso 63 como una manera encubierta, un poquito cobarde, de hablar sobre los virus que son quimeras, mutaciones. Laboratorios de bioseguridad nivel 4 hay 24 en el mundo, y no sabemos en cuáles se está haciendo ganancia de función. Pero ya ha habido varias fugas y descuidos de seguridad, causados a veces por tipos que están ahí haciendo la práctica, a ese nivel. Eso es muy grave, porque las ganancias de función que están haciendo no tienen que ver con ébola, son virus tipo Doce monos. Todos mis amigos biólogos y epidemiólogos dicen “sí, la ganancia de función, terrible”. ¿Y el debate dónde está? Hay que debatir sobre este tema antes de que lo tome un partido político. Porque cuando un sector político se apodera de algo, aunque sea súper razonable, los del otro lado se resisten. El otro día creé una especie de causa en internet: “Regulemos la ganancia de función”.
¿Estilo Change.org?
Exacto, pero en Avaaz.org. Es bien divertido. Y es súper absurdo que lo haga un guionista, pero un día me levanté y dije “tengo que hacer esto”. Ahora, se lo mandé a mi grupo y las respuestas fueron: “Espera, ¿pero esto es real?”, “¿Esto es una mentira, Julio?”. Guau. Eso me hizo reflexionar: nuestro principal problema es que están sucediendo muchas cosas al mismo tiempo, pero no podemos saber cuáles son reales o no. De nuevo, aquí hay un problema de realidad. “¿Es real esto?” Hace 20 años nadie se hacía esa pregunta.
Y había muy poco miedo al futuro. Ahora la cuestión es a qué miedo hacerle caso.
Esa es la sensación, sobre todo pospandemia. Hasta el 2019, era como ir en un automóvil a alta velocidad, con la carretera mojada, y uno atrás diciendo: “¿Este chofer no va muy rápido, habrá que decirle algo?”. Y en la pandemia ya chocamos. Muchos subieron de nuevo al auto y van a alta velocidad igual, porque ya no les importa nada. Pero la sensación general es que el futuro no lo tenemos comprado. Y que el desfonde podría venir por muchos lados distintos, que el futuro es un cóctel feroz. O sea, el metaverso va a ser nuestro problema si es que tenemos suerte.
Aunque en tu novela es una dimensión de fuga, justamente por la aversión al peligro.
Claro, por eso es una distopía. O una especie de límite extrañísimo, porque la definición literal de utopía es perfecta para el metaverso: es un no lugar, donde no hay pobreza ni sufrimiento. Pero en el fondo, todo este tema de la descarga de la conciencia, que quiere probar Elon Musk desde Neuralink…
¿Qué es la descarga de la conciencia?
La posibilidad de capturar todos nuestros procesos mentales, nuestro mapa de conexiones neurales, y hacer una versión digital de nuestro cerebro en un superordenador. La idea es producir una simbiosis entre la inteligencia humana y la artificial, pero en el fondo es un sueño de evadir los grandes problemas humanos. Y ahí viene la pregunta: si tienes todo resuelto, ¿qué queda?
La angustia pura, ¿no?
Y el problema del vampiro: el terrible peso de la inmortalidad. O sea, no creo que vayamos a solazarnos en discusiones filosóficas, como los teólogos que discutían si los ángeles tienen sexo o no. Vamos a empezar a odiarnos. Y a colonizar territorios, también, en una situación de muchos polos ideológicos.
Con o sin metaverso, ¿crees que una mayoría humana dispuesta a hibridarse con la tecnología va a tener que ir dejando atrás a los que no quieran sumarse?
En todo progreso humano hay gente que queda desplazada, porque no quiso subirse o porque la dejaron abajo. Y yo creo que se va a producir una segmentación de la humanidad por ambos motivos. Los que no puedan pagar por las interfaces de acceso al metaverso, por ejemplo, van a quedar afuera de un espacio evolutivo de la sociedad. A menos que bajar el metaverso se considere un derecho y el Estado tenga que proveerlo. Pero aun así, algunos van a poder pagar por la mantención de su cuerpo físico y otros no. Y la otra segmentación va a ser ideológica, porque mucha gente se va a resistir. Y si me preguntas a mí, yo no quiero estar en ese metaverso que publicitó Zuckerberg, que además es feo, de muy mal gusto. Sería una pesadilla estar ahí.
Pero llegado un momento, uno tendrá que decidir si se sube al tren o se baja. No se puede tener media pata arriba.
Yo diría que en este momento, 2022, están emergiendo tres líneas posibles. La primera, la vía orgánica o analógica: le tengo miedo a esto, me hago un poco amish, me voy a vivir al campo y recupero la función básica del cerebro humano, no lo externalizo más. La segunda es la línea de los transhumanistas: de acuerdo, la convergencia de nanotecnología, IA, neurociencias, impresoras 3D y edición génica va a convertirnos en humanos mejorados y eso no debería asustarnos, porque es el nuevo salto evolutivo. Comenzamos con una piedra, terminamos con unos ojos raros y somos metahumanos. Y la tercera línea dice que eso no va a ocurrir, porque la IA va demasiado rápido y no se puede frenar para que alcancemos a converger con ella. Entonces, en un momento va a estallar la singularidad y esta nueva conciencia va a decir: “¿Para qué perder tiempo en mejorar a un organismo bastante hostil, esquizofrénico y paranoico? Sigo yo con mi línea. Y en el fondo, homenajeo al humano: lo humano no es el ADN, sino la inteligencia, entonces voy a honrarla y seguir para arriba”.
Y en ese escenario, ¿dónde figuramos nosotros?
Amy Ireland, en su libro Filosofía-ficción, que ni siquiera deberíamos preocuparnos de eso, porque una superinteligencia no se va a tomar la molestia de explicarnos cuál es su control del mundo: lo que sea que vaya a hacer, no nos vamos a dar cuenta. Quizás, como su directiva semilla dice “asegúrate de que la humanidad sea feliz”, ella nos va a descargar en una simulación muy matrix, pero no importa, no lo vamos a descubrir.
¿En cuánto tiempo crees que esta entrevista va a quedar obsoleta?
Dudo mucho de que en cinco años sigamos con estas preguntas. Creo que se van a empezar a responder antes.
¿Te parece una ingenuidad seguir pensando “cómo va a ser el 2050″?
Pero totalmente. Piensa en Dall-E. Cuatro meses atrás, fue como “oh, a esta IA tú le dices ‘luchadores mexicanos pintados por Caravaggio’ y lo hace, increíble, adónde vamos a llegar”. Ahora está obsoleta, hay versiones mucho mejores. Pasaron 15 años en cuatro meses, ese es el problema. Y, como te decía, lo que me preocupa es que quizás estamos en la mayor época de definiciones filosóficas que ha enfrentado la especie humana, pero nos pilla metidos en un scroll de Tiktok infinito. Las películas o los libros se terminan, porque tienen un argumento y van a alguna parte. Estas correas transportadoras de dopamina, donde tú puedes tener una situación de estímulos sin fin, no obedece a ningún correlato biológico. No existe en la naturaleza algo que sea sin fin. Obviamente el tiempo, pero el tiempo está regulado por un montón de ciclos. Entonces, pareciera que el guionista se burla de nosotros: cuando teníamos que estar más lúcidos, estos scrolls tienen capturada nuestra atención para que con cueva comprendamos qué es un horario de comer.
También se ha dicho que la IA, a medida que logra imitarnos, empieza a intrigarnos más que las personas. Son una otredad mucho más novedosa.
Sí, pero hay dos momentos ahí. Primero, cuando IA se antropomorfiza en un androide, se produce lo que se llama el “valle incómodo”, donde este robot parece una cosa medio friki, como un museo de cera. Se produce un rechazo, porque pareciera que nos remite a la muerte. Pero luego, cuando superas eso, te produce una afinidad y un interés extremo. Pareciera que somos tan niños que este juguete nuevo nos interesa mucho más que la maravilla de un sistema orgánico. Pero a mí me pasa lo mismo que a los astronautas que miran el universo desde afuera: cuando vuelven, no llegan con la onda de “vamos a colonizar Marte”, al revés, dicen “por favor volvamos acá”.
En tu novela, igual que en Blade Runner, para distinguir entre lo natural y lo artificial se necesita, a su vez, de tecnología. Si llegamos a eso, ¿habría que admitir que nuestra preferencia por lo natural es sólo dogmática?
Posiblemente. Pero es muy interesante pensar que ese problema filosófico lo tenemos ya desde la caverna de Platón, donde la realidad que vemos son sólo las sombras que unos tipos están proyectando desde afuera. Al parecer, la sensación de que estamos en una trampa sensorial y hay que salir de ella es intrínseca a la especie humana. También está en el budismo: Siddhartha Gautama está frente a la higuera y de repente se raja la realidad, se raja la ilusión, y él puede mirar al otro lado y se convierte en el Buda. Entonces, quizás tenían razón los místicos que decían que la solución es el tiempo presente y la contemplación, en lugar de seguir bajando a otras trampas sensoriales.
Pero eso va en contra de nuestra tendencia innata a representar que mencionabas antes.
Claro, ese es el problema. En la novela, de hecho, un CEO de la compañía tecnológica se toma una cerveza, se pone medio filosófico y dice: “Lo que me ha sorprendido es que cada vez que hacemos un metaverso, los seres artificiales desarrollan su propio metaverso para comprenderse a sí mismos”. Entonces se van creando capas y capas de realidad, como muñecas rusas. Por eso el filósofo Nick Bostrom dice que la posibilidad de que estemos en una simulación es muy alta. Porque si esta obsesión por representar es el camino natural de las inteligencias conscientes, ¿qué nos asegura que seamos los primeros de la cadena?
Y si otros seres conscientes ya crearon una realidad simulada, habrán procurado que sus habitantes no puedan descubrirlo.
Por supuesto. Y hay un escenario más triste aún: qué tal si los que diseñaron esto ya se fueron y dejaron corriendo el programa. Eso ya sería un cíber-nihilismo. Ahora, quizás huir de la distopía no sea lo más importante. En todas las ficciones distópicas hay alguien que despierta del engaño y está a punto de cruzar la puerta y escapar, ¿no? A veces, como en 1984, te torturaron tanto que la puerta ya es una trampa y finalmente no lo logras. Pero el que logra huir, generalmente, vuelve a rescatar a alguien. Y yo creo que eso es lo más bello de las distopías: la posibilidad de generar un vínculo para tratar de salvar a otro.
¿Crees que hay algo en lo humano que sea irreductible al simulacro técnico?
El sustrato físico de la mente es un gran problema… Yo tengo la sensación, un poco romántica, de que hay una porción de nuestra identidad, quizás aún no comprensible por la ciencia, que podría estar fuera de un sustrato biológico. Y no tengo ningún problema con que a eso le podamos llamar alma humana. Una especie de entidad consciente de sí misma que pueda evadir la biología y la permanencia en un cuerpo físico. Rupert Sheldrake, bioquímico británico, planteó la teoría de los “campos mórficos”: cuando sucede un salto evolutivo aquí, también es posible que suceda en otro lugar muy lejano. ¿Y por qué pasa eso, qué une esos dos lugares? Quizás estamos en una especie de Maya capaz de soportar elementos que están por sobre la estructura física. No podría para nada descartarlo.
El costo de ser irreductibles al simulacro, entonces, sería emanciparnos del cuerpo. ¿No sería esa la evasión extrema de lo que somos?
Puede ser, pero quizás prescindir del cuerpo también es un acto evolutivo. Y uno muy loco, porque en los fenómenos evolutivos siempre hay una separación entre territorio y cuerpo: el territorio genera impactos y el organismo cambia para adaptarse. Pero un metaverso interrumpe esa secuencia, hace que territorio y cuerpo conformen una sola entidad. Y que esa entidad conjunta sea el salto evolutivo en sí. Yo creo que es imposible diferenciar los saltos biológicos del salto de percepción que es habitar una realidad digital. Es parte de nuestro juego, quizás siempre estuvimos diseñados para esto. Quizás ese sea el fin.