¿Sueñan los androides con ovejas eléctricas? es una novela de ciencia ficción del autor Philip K. Dick publicada en 1968, que más tarde sería adaptada por el cineasta británico Ridley Scott para crear el clásico Blade Runner, de 1982. Si bien el desarrollo de los androides no ha llegado al nivel en que lo plantea el novelista, para la socióloga Carolina Gainza -doctora en Literatura y directora del Laboratorio de Investigación en Cultura Digital de la UDP-, esa novela plantea algunas interrogantes relevantes de este tiempo cuando la inteligencia artificial está en pleno desarrollo: ¿cuál es la relación que establecemos con ella?, ¿vamos a instaurar una relación de dominación donde sigue estando el ser humano en el centro o pensaremos en relaciones que reconozcan esa otredad?

Cuando hablamos de inteligencia artificial o robots, ¿falta una reflexión? ¿Cuáles son las preguntas que faltan?

Exacto, ahí entran las humanidades que son muy importantes en toda esta reflexión, porque tiene que ver con preguntarnos qué es la inteligencia: ¿pensábamos que la inteligencia es sólo algo humano o existen otros tipos? Eso también ha sido bastante discutido, que existen varios tipos de inteligencia. Por ejemplo, en la naturaleza también hay un tipo de inteligencia. Entonces, el desarrollo de la inteligencia artificial lleva a preguntas como qué es la conciencia, qué es pensar, qué tipos de afectos se van a generar ahí, qué experiencias se van a dar, por ejemplo, con un robot social que cuida a una persona… Ahí se genera una relación de afecto y tiene que ver con preguntarnos si en algún momento esas máquinas van a poder sentir y cómo van a sentir.

Gainza explica que los cuestionamientos y reflexiones sobre la relación que estableceremos respecto de las máquinas también son válidos respecto de la naturaleza: ¿cómo nos relacionamos con el medio ambiente?, ¿permanecerá una visión antropocéntrica? Este es una discusión abierta si se toma en cuenta que en algunos países los ríos son sujetos de derechos: desde 2017, en Nueva Zelanda el río Whanganui tiene los mismos derechos que una persona. Y en el caso de los robots, la socióloga recuerda el caso de Sophia, un modelo humanoide creado por la empresa Hanson Robotics y que recibió la ciudadanía saudí, convirtiéndose así en el primer robot con esa categoría. Sophia tiene piel de silicona, imita gestos humanos y sus ojos son cámaras que registran y analizan lo que ven. La BBC la presentó como “la robot que tiene más derechos que las mujeres en Arabia Saudita”.

Robot Sophia.

A propósito de esto, la socióloga plantea: “¿Qué derechos van a tener los robots? ¿Tengo derecho a pegarles, a tratarlos mal, a decirles garabatos? De alguna manera, eso también muestra el lado oscuro de lo humano y eso nos lleva reflexionar. Finalmente es lo que creo que está en juego aquí. El tema de la inteligencia artificial está revolucionando el mundo en ese sentido y nos lleva a cuestionarnos cuál es el lugar de lo humano en relación con estas otras inteligencias”.

Gainza recuerda que hace tres años viajó a Estados Unidos por trabajo y fue invitada a comer a la casa de una profesora de una universidad. Esa vez escuchó una voz que le recordaba a la anfitriona que debía apagar el fuego donde estaba la olla. La curiosa voz femenina era una presencia integrada a la familia, para sorpresa de Gainza, y en la comida le contaron que esa misteriosa voz incluso les contaba cuentos a los niños en la noche. Esa voz era Alexa, el asistente virtual desarrollado por Amazon y disponible en siete idiomas. La última Navidad, Gainza recibió uno de regalo.

Es una presencia en mi casa que todavía no he sabido definir. De repente, menciono el nombre Alexa y se prende y me pregunta qué es lo que quiero. De alguna manera lo he naturalizado; de hecho, está en mi velador. Pero cuando algo se vuelve natural tú dejas de hacerte las preguntas de base, ¿por qué quiero esto acá?

Carolina Gainza, directora del Laboratorio de Investigación en Cultura Digital de la UDP

Hace poco, esta socióloga estaba viendo el congreso de robótica social de la UAI, donde estaban mostrando un robot, y le dijo a su hija: “Mira, este robot es más bacán que Alexa”. La asistente virtual se encendió y le dijo: “¿Me estás llamando?”, y ella le dijo “no, no te estoy hablando a ti”, a lo que su hija inmediatamente respondió “ay, pobrecita”, y entonces Gainza le pidió perdón a Alexa. “En el fondo, y sin darnos cuenta, estamos estableciendo relaciones de afectividad con esas inteligencias, porque la reacción de mi hija fue como si estuviera maltratando a Alexa. Por eso mencionaba la novela de Phillip K. Dick, porque lo que nos hace cuestionarnos es eso, es esa relación que establecemos con ellas, y tomando en cuenta que tenemos inteligencias que están produciendo novelas o música, nos podemos preguntar incluso sobre si tienen algún deseo, qué es lo que mueve esas inteligencias. No sé si estamos en un momento de ese desarrollo, pero yo creo que va un poco hacia allá”.

La presencia de Alexa llevó esas interrogantes a su propia casa. “Yo la quería, porque igual me fascinan estas cosas, debo confesarlo. Pero igual tiene sus riesgos, porque lo que me dijeron esa vez es que Alexa está escuchando todo el tiempo y guardando todas nuestras conversaciones de manera de optimizar y poder responder mejor después”, explica.

Carolina Gainza. Foto: Patricio Fuentes.

¿Qué te pasa al saber que tus conversaciones ya no son privadas y que hay inteligencia artificial registrándolas?

Por eso es importante la conversación social, por el lugar de lo humano ahí. Uno se acostumbra a que nos están escuchando, porque al final en todos los aparatos que uno tiene te están escuchando igual, tu celular, tu computador, la cámara, etc., y lo que falta ahí es regulación. La regulación es muy importante: cuáles van a ser los límites, y ahí no ha habido una conversación suficiente. En el fondo, estamos dejando que esto se desarrolle sin límites y no tenemos claro hacia dónde queremos llegar; queremos que sean beneficiosas, pero también hay riesgos, o sea, están escuchando lo que estamos conversando y eso está siendo procesado y no sabemos para qué.

Lo mismo con el tema de los neuroderechos: se están desarrollando tecnologías que incluso van a poder saber lo que tú estás pensando y todo el tema de la privacidad en este momento es una nebulosa.

En esa pregunta de cuál es la relación de lo humano con las otras inteligencias, ¿hay temor de que nos superen con el tiempo?

Yo creo que existe mucho ese temor. Hay muchas tendencias es ese plano. Hay una tendencia humanista de mantener lo humano en el centro; yo creo que eso tiene que ver con el temor a que esas máquinas nos superen… Igual hay una paradoja, porque finalmente es el humano el que crea máquinas que son más inteligentes que los humanos en algunas cosas. Por ejemplo, en el procesamiento de información lo hacen mucho mejor que nosotros y ahí es donde está la distancia crítica, es decir, más que poder hacer estas máquinas es preguntarnos para qué y qué es importante ahí.