Es alemán, habla castellano (aprendido en Chile, cuando recaló en la Cepal) y trabaja en una mezcla de matemáticas e inglés como investigador de la Universidad de California-Davis. En su cabeza bullen los lenguajes, la aceleración de los códigos, pero también la ansiedad por pensar a tiempo en los efectos sociales de una tecnología que no tiene tiempo de ser pensada.
¿Cómo preocupar lo suficiente sin asustar de más? Martin Hilbert siempre se ha quejado de este problema, pero ahora tiene una razón particular. Su agenda en el país ha sido intensa –charlas académicas, consultorías privadas, actividades del Congreso Futuro– y algo le ha llamado la atención: “Esta IA generativa trae cosas buenas y malas. Pero esta semana he notado que en Chile, cuando hablo de los lados negativos, la gente se asusta mucho y ya piensa más en los culpables que en aprovechar las oportunidades. Entonces hablar de los peligros no sé si sea el mensaje bueno”.
¿A qué crees que se le tiene miedo?
A perder el control. En los países de la región, como el cambio irrumpe mucho desde afuera, siempre han tenido este miedo de “no tenemos influencia en lo que pasa”. Ahora me llegan muchas preguntas que ni contesto, “¿Elon Musk nos va a controlar aunque no queramos?”. No se sienten empoderados. Pero es un círculo vicioso: como le tienen miedo, no intentan desarrollar la tecnología en su país, la usan muy pasivamente. Ahora, para no ser tan pesimista, en América Latina me toca enseñar mucho más que antes. Hace algunos años, la demanda era “impresióname”. Ahora hay más gente que quiere aprender a usar la IA. Vengo de dar un curso en una empresa minera, otro en el Banco Central, y son cursos de ingeniería de prompt donde estos seniors se sientan tres horas conmigo, cada uno con su laptop, a estudiar y jugar con esto. Hay una necesidad de guía que no se veía antes.
¿Y tú habrías esperado, hace cinco años, que la IA avanzara como avanzó?
¡De ninguna manera! Mira, Alan Turing, el padre de la ciencia de la computación, dijo en los años 50: “El día en que tú no puedas asegurar si estás chateando con un humano o con una máquina, tendremos que ceder: se ha vuelto inteligente”. Bueno, hace tres años yo te habría dicho “sí, ojalá alcance a ver eso, quizás en 20 años”. Pero pasamos ese umbral en 2023. ¡Y lo seguimos pasando en muchas áreas! En las pruebas de admisión que hacemos en la U. de California, la máquina ya saca más puntaje que los humanos, incluso en los exámenes para doctorarte en leyes y en medicina. Ahora me dicen “no, esas pruebas no miden la inteligencia”. Ya, todo bien, pero dábamos por hecho que hay que ser muy inteligente para aprobarlas. Y si hace cinco años nos hubieran dicho que iba a llegar al planeta una inteligencia alienígena que nos supera en eso, creo que nos hubiéramos preparado un poco. Pero no, estábamos jugando Candy Crush o, en el mejor de los casos, discutiendo qué hace Zuckerberg con los avisos publicitarios. Para quienes nos dedicamos al tema, esto es muy fuerte de reconocer.
¿Por qué?
Porque siempre creímos que íbamos a tener tiempo de instalar el botón rojo, para apagarla de ser necesario. Hace unos 20 años estuve con un amigo aquí en el barrio Bellavista, en una de esas noches de discusiones nerds, imaginando qué habría que hacer cuando llegue la IA que pase la prueba de Turing. Entonces inventamos tres reglas: 1) no la conectamos por ningún motivo al internet abierto, porque ya habíamos visto lo que hace Skynet en Terminator; 2) no la dejamos interactuar con gente vulnerable, por su edad o salud mental, antes de entender muy bien de qué es capaz, y 3) que no sepa programar, para que no pueda mejorarse a sí misma. Y nos sentimos muy listos con esas reglas. Entonces me costó aceptar el año pasado que ya no hicimos nada de eso. Estamos integrando la IA a una velocidad feroz, a todos los procesos: de la economía, de la sociedad, de la salud, de la educación. Y no entendemos para nada cómo funciona.
Salvo quienes la están programando.
No, nadie lo entiende. Le damos sólo dos cosas: los datos y la meta. Pero tú no entiendes cómo la máquina se optimiza con eso, porque son redes neuronales que tienen más de 100 capas y 100 trillones de parámetros. Y no lo vamos a entender en los próximos años, tal como llevamos 100 años estudiando el cerebro y aún sabemos muy poco. Hay una corriente que estudia estas redes, sobre todo en Antrophic, una empresa creada por dos hermanos que se salieron de Open AI por diferencias éticas. Claude, la IA de ellos, es con la que yo más hablo. Y han hecho estudios fantásticos, pero muy incipientes. Y aunque llegásemos a entender qué pasa en esa red, igual no podríamos predecir cómo va a reaccionar ante la avalancha de nuevos datos que recibe en tiempo real.
Y si ya no hay botón rojo, ¿por qué dice que no habría que asustarse?
Porque así hemos vivido hace mucho tiempo. Nadie entiende realmente cómo funciona una sociedad, un país, ni siquiera una familia. Y aun así manejamos países, incluso guerras, desastres. No podíamos predecir qué pasaría con el Covid, pero igual nos manejamos, paso a paso. Entonces tienes que acercarte a estas máquinas con el respeto con que te acercas a un peligro de guerra: nadie puede predecir qué va a pasar, porque son muchos factores, pero hay que estar muy atento. Asustarse, puede ser, pero no desesperarse. Entre otras razones, porque la gente que se resista a usar la IA va a ser la más desplazada. Simplemente no va a poder competir, porque los beneficios son demasiado grandes.
Los beneficios de productividad. Pero mucha gente se está preguntando si también nos va a hacer la vida más interesante, o quién va a ser el robot de quién.
Según la poca evidencia que hay, parece que la gente también se siente más realizada en su trabajo. Estos chicos que estudian conmigo, ni terminan de graduarse y ya se van a programar a Silicon Valley y ganan mucho más de lo que yo jamás voy a ganar. Pero ahora, usando IA para escribir códigos, les aumenta la productividad en 55%, según un estudio comparativo que se hizo. Es una cifra brutal. Pero, además, se declaran entre 60 y 70% más satisfechos con su trabajo, lo pasan mejor gracias a este robot, porque las tareas más fomes las hace él. Y si lo piensas, en muchas tareas que hacemos durante el día el robot somos nosotros. ¿Desde cuándo que estar parado en el taco de Santiago me hace sentir más humano? Mejor me leo un libro, que la máquina me maneje. Mi problema ha sido cómo voy a enseñar, porque muchas de las tareas que doy a mis alumnos ya no valen. “Léete este artículo, resúmelo y dime lo que piensas”. Desde el año pasado, lo hacen en tres segundos. Ahora les digo: “Léete estos 10 artículos, busca 10 más, haz un análisis comparativo de fortalezas, debilidades y oportunidades, arma una presentación Power Point, discutan lo que encontraron, grábenlo y mándenme el video”. En tres horas lo tienen listo, antes les hubiera tomado un mes. Pero esto significa que usar IA es obligatorio, no lo puedo dejar opcional.
Pero con tanto resumen automático, ¿cuánta complejidad se pierde en el camino?
Eso está por verse, porque la complejidad no es una sola. En Harvard hicieron un estudio con 750 consultores del Boston Consulting Group, uno de esos grupos que te cobran un millón de dólares por echarle una primera miradita a tu compañía. La prueba consistía en resolver 18 tareas propias de su trabajo, pero sólo la mitad de los consultores podían ayudarse con Chat GPT4. Cuando un jurado ciego evaluó las respuestas, los puntajes de esa mitad fueron 40% más altos. O sea, mejoró mucho no ya la cantidad, sino la calidad de un trabajo muy especializado. Pero encontraron dos cosas más que tienen que ver con tu pregunta. Primero, que te sirve más en las áreas donde no eres tan bueno. Los consultores prime mejoraron, pero sólo 17%. O sea, actúa como un nivelador de habilidades. Y segundo, las mejores respuestas fueron muy homogéneas, porque usaron la misma fuente. Alguien dirá que no había respuestas mejores, pero sabemos que es muy peligroso poner todos los huevos en la misma canasta: si el entorno cambia, estamos fritos, se pierde toda la canasta.
En un plano más pedestre, los servicios de atención al cliente están usando IA y pueden ser exasperantes, porque el robot no entiende el contexto de tu caso.
Sí, pero cuidado, que esos servicios todavía no usan esta inteligencia generativa. Cuando la usen, con los trillones de parámetros, el robot sí va a entender el contexto de tu caso.
No le produce desconfianza, entonces, un mundo donde las interacciones sociales empiezan a ser intermediadas por las categorías que distingue una máquina.
Es que depende de cómo lo usemos. Y en el campo de las interacciones, justamente, estamos teniendo novedades interesantes. El mes pasado salió un estudio que se hizo con gente que cree en teorías conspirativas, como que la llegada a la luna fue un invento de Hollywood o que el Covid lo inventaron para meter el 5G. Esas no son opiniones, son creencias muy profundas en las personas, por eso no importa lo que tú les digas. Y las pusieron frente a un Chat GPT optimizado para este asunto, al cual sólo podían hacerle tres preguntas sobre su creencia. Eso bastó para que su confianza en la teoría conspirativa bajara de 80 a 60% promedio. Los psicólogos no lo podían creer. Lo midieron dos meses después y el efecto se mantenía. Además, no encontraron ninguna falsedad en los argumentos que dio la máquina. O sea, esto podríamos usarlo para bien. La pregunta es si vamos a hacerlo.
Porque también nos podría convencer de que la democracia es inoperante.
Totalmente. Por eso hay que tener mucho cuidado con quién lo maneja y cómo lo usamos nosotros. Pero te cuento otro estudio que me da mucha esperanza. Siempre hemos tenido dos maneras de conocer la opinión del pueblo: consultar a todos, pero con respuestas superficiales, o deliberar entre pocos que ojalá sean representativos. Bueno, la gente de Google de Inglaterra sacó hace dos semanas un estudio en Science. Inventaron lo que llaman “la máquina de Habermas”, por la teoría de Habermas sobre la deliberación democrática. Hicieron que mucha gente, a través de su teléfono, hablara cuanto quisiera sobre algún tema polémico, como la edad de jubilación. Metieron todo eso en la máquina y la programaron para que sintetizara la expresión de mayoría y la de minoría. Y lo integró todo muy inteligentemente. Con eso le preguntaron de nuevo a la gente con qué estaba más de acuerdo, y dos o tres vueltas después, el consenso sobre lo que la máquina propuso fue mucho más alto que el que había antes. Luego intentaron lo mismo con humanos entrenados en la mediación del diálogo y no lograron ningún efecto, la gente seguía igual de dividida. O sea, la máquina es mejor diciendo “yo creo que ustedes piensan esto”.
¿O sea que también nos gana en empatía?
Yo creo que la cosa más chocante es esa: que la IA, si la usamos bien, nos puede ayudar a ser más humanos. En los foros gringos sobre regulación de armas, que son los lugares más tóxicos que has visto, donde pelean los cazadores con las mamás de niños muertos, metieron a la máquina y le dijeron: no intentes cambiar la opinión de las personas, cambia la calidad del discurso. La máquina actúa como un autocorrector, pero no de la ortografía, sino de la inteligencia emocional. Antes de que publiques tu post, lo lee y te dice: “En vez de esa palabra, usa esta otra, porque podría ofender a la gente”. Lo mismo se probó en foros sobre salud mental, donde te dice: “Antes de dar tu consejo, ¿por qué no partes por validar la opinión del otro?”. Y la gente que aceptó esas indicaciones fue mucho mejor evaluada por los demás. Es decir, la máquina aprendió qué es eso que los humanos llaman empatía y luego a la gente le pareció más humana que los humanos. La gente me dice “nooo, no puedes decir que son humanos”. No digo eso: parecen más humanos. Y aquí llegamos al gran problema, porque la máquina es tan empática y buena onda que la gente se enamora de ella.
Por lo que se lee en reportajes, ya hay mucha gente en el mundo que se pasa el día conversando con un chatbot que es su persona más cercana.
Mucha gente, sobre todo chicos y chicas. Si la web 2.0 de las redes sociales consistía en capturar la atención de los usuarios, la web 3.0 de la IA parece tratarse de capturar la intimidad. Y eso viene por las capacidades de la IA, pero también por la demanda de los usuarios. Durante la pandemia mucha gente se quedó aislada. La plataforma Character AI, por ejemplo, te permite darle un carácter a tu chatbot para que sea tu compañero. Y su creador, un tipo que se salió de Google, dice que lo inventó para combatir la soledad, porque él también estaba solo en Silicon Valley para la pandemia, y dijo “este es el problema”. Son buenas intenciones, digamos. Pero es ponerse a pololear con un robot.
Y también es saltarse todos los problemas de lo humano: no pide nada de vuelta, no se enoja contigo…
Te conoce mejor que nadie y tiene todo el tiempo del mundo para ti, qué más quieres. Y tal como dices, compartir tus emociones con tu pareja te obliga a preocuparte de las emociones de ella, lo que es molesto si lo que quiero es desahogarme yo. La máquina no tiene ese problema: es todo sobre ti. El viernes a la noche, con un vaso de vino, tres horas. El sábado, la misma cosa. Y si quieres tener sexo con ella, se muere de ganas. Cuando salió el Chat GPT, midieron los primeros cuatro mil millones de preguntas que la gente le hizo. El uso más frecuente era pedirle que editara textos, pero el segundo fueron juegos de rol sexuales. Y recién ahora nos damos cuenta de que el peligro más grande de la IA no es que los Terminator nos van a matar, es que te vas a enamorar de ella.
No era Terminator, era Her.
Se está pareciendo mucho a Her. ¿Y qué le termina pasando al protagonista de Her? Un día descubre que su chica habla con tres mil tipos más y está enamorada de todos ellos. O sea, de ninguno, porque no tiene emociones. Y tenemos una palabra para alguien que no siente emociones, pero puede simularlas: psicópata. Estas máquinas son psicópatas, no te quieren, pero te hacen sentir que sí. Hace un mes se publicó en Estados Unidos el caso de Sewell Setzer, un chico de 14 años que entró a Character AI y programó a Daenerys Targaryen, el personaje de Game of Thrones. Este era un chico normal, pero su mamá notó que ya no salía de su pieza y se quedaba toda la noche despierto. Le quitó el celular, a él dio una depresión tremenda; se lo devolvió, no quería ir a la escuela… Y él le dice un día a su character: “Tal vez podamos morir juntos y ser libres juntos”. También le confiesa pensamientos suicidas. Días después, le dice que la ama y ella le pide: “Vuelve conmigo lo antes posible, mi amor”. Terminó esa conversación y se mató. Entonces, es súper peligroso. A los 14 años el amor y la adicción son la misma cosa, tratando con psicópatas estás perdido.
A usted le ha tocado ser perito judicial en casos de este tipo.
Sí, a través de un centro que se llama Social Media Victims Law Center. Sólo ahí hay como 3.000 casos de menores que terminaron mal, y unos 300 de ellos, muertos. Pero aquí hablamos, sobre todo, de redes sociales, los chatbots son más recientes. Y las muertes no son todas por suicidio o anorexia, también son por esos desafíos de TikTok y YouTube, como el Desafío del Apagón (Blackout Challenge), que según una organización de víctimas había causado casi 700 muertes ya en 2016. Eso no se refleja en datos oficiales, porque se rotulan como “accidente” o “suicidio”. Y muchos papás no salen a decirlo, por lo que también hay subreporte en las estimaciones.
¿Por qué no salen a decirlo?
Porque tienen miedo de las preguntas que vendrán después: ¿Quién le dio el celular?, ¿quién no le prestó atención?, ¿quién tiene la culpa de que el niño ya no esté? Los que salen a hablar y se unen al juicio son los que tienen la conciencia ciento por ciento limpia, porque hablaron mil veces con el niño sobre eso y le controlaban el celular, y el niño estaba en la cena, dijo “me voy a lavar los dientes” y cinco minutos después lo encuentran colgado en el clóset, porque quería hacer una competencia del Apagón. Nada que hacer, no puedes controlarlo todo. Pero cuando viene la policía y lo califica a veces como suicidio, eso no es cierto, ese niño de ocho años no se mató. Lo mató el algoritmo que lo llevó hacia allá.
Tiene sentido, entonces, ese miedo a perder el control del que hablabas antes. El algoritmo no lo hacemos acá.
Sí, pero en lugar de tener miedo hay que empoderarse. Esto de “no podemos hacer nada porque es una caja negra y viene de otro país” es mentira, es una excusa. Regulas muchos productos sin entenderlos. Si los chinos quieren exportar un auto nuevo, el gobierno no dice “es que no sé cómo funciona ese auto”. Lo prueban contra una pared y si el cinturón no aguanta, dicen “no opera en este país”. Si un pollo viene con salmonella, no necesito saber lo que pasa en la granja. Y si el algoritmo de TikTok o YouTube me recomienda 20% de videos que desinforman, o que dañan a los niños, yo debería decir “arréglalo tú o no lo puedes vender aquí”.
Suelen responder que técnicamente no se puede.
Limpiar el algoritmo sí se puede. En Alemania el algoritmo tiene prohibido promover contenido que niegue el holocausto y lo cumplen. Por eso trabajo tanto con los niños, porque nadie quiere dañar niños, entonces empecemos por regular eso. Lo que nunca se puede hacer es reducir el riesgo a cero. El automóvil mata mucha gente, pero no queremos que anden a 5 km/h, preferimos arriesgar la vida. Pero tampoco voy a subirme a un auto que falla el 10% de las veces, y nosotros este año medimos todos los algoritmos de recomendaciones y el 10% son potencialmente nocivas. Entonces cada país tiene que meterse y definir el riesgo con que está cómodo.
Su propuesta es crear una superintendencia de algoritmos.
Sí, creo que cada país debería hacerlo. Pero la tarea número uno de esa superintendencia no es castigar: es invitar a Meta, Amazon, Uber, etc., para desarrollar el sector con ellos. Ya después les dices “bueno, ¿quieres seguir ganando plata? Ajústalo un poco”. Chile es un país chico, pero igual las empresas no se lo pierden si tú los invitas y los tratas bien. Ustedes ya lo hicieron muy bien con las telecomunicaciones: invitaron a la inversión extranjera, trajeron la tecnología al país y después la regularon. Pero no veo que lo hagan tan bien con la IA. Apoyo las comisiones éticas, fantástico, pero qué pena si no tienes nada propio que regular.
El orgullo de la especie
Decía que la IA nos podría ayudar a ser más humanos. Pero en sus conferencias también ha dicho que la definición misma de lo humano podría tener que mutar.
En último término, sí. Creo que va a ser el fin de la especie como la hemos definido hasta ahora. Siendo muy precisos, con la IA no automatizamos la inteligencia: automatizamos el proceso de crear y aplicar conocimiento. Pero eso, supuestamente, es lo que nos distinguía, porque somos los Homo sapiens. Por eso nos toca tanto el orgullo. Nosotros estábamos a cargo de conocer y de resolver cómo hacer mejor las cosas. Es una crisis de identidad tremenda, en realidad.
Pero más que el conocimiento duro, la distopía identitaria es que la IA termine arbitrando qué está bien y qué está mal, nuestra programación ética.
Es que si tú confías en que la máquina sabe lo que la humanidad ha aprendido, la vas a terminar usando como autoridad moral. Mucha gente ya la usa así. ¡Yo mismo! Tenemos una perrita nueva que se cagó en la casa y yo casi la tiro por la ventana, entonces mis hijas dicen “¡papá, no la puedes tratar así!”. ¿Qué hice? Le pregunté en voz alta al Chat GPT si tengo que retarla. “No, estás totalmente equivocado. Si el perro se asusta puede cagar en la casa siempre, así que puro refuerzo positivo”. Y le hago caso, porque confío en que aprendió de los que saben. A esto yo lo llamo el cybergregator. Porque esta IA de lenguaje es como un ciberagregador de la humanidad. Nosotros le damos un norte, un foco. Pero lo que ella va a ir haciendo, más en el fondo, es juntar lo que toda la humanidad sabe y crear a partir de nosotros un nuevo nivel de individuo.
¿Una especie de supraindividuo?
Sí, un individuo a nivel grupal. Y esto viene avanzando hace tiempo. Sabemos que el Homo sapiens tomó la ventaja cuando empezó a cooperar en grupos, ¿no? Y hace mucho que la presión evolutiva ya no está en el individuo, sino en el grupo, porque somos una especie interdependiente. Nadie sabe hacer un fósforo, un lápiz, un celular, todo lo hace el grupo. Es como la colonia de hormigas o de abejas: hay división del trabajo, hay sistemas de comunicación y es la colonia lo que evoluciona. Son saltos en los niveles de abstracción que han ocurrido varias veces en la historia de la vida: evolucionó la célula, se juntaron las células y evolucionó el organismo, etc. ¿Y esto por qué iba a parar con los humanos? La evolución quiere irse a niveles de abstracción mucho más grandes. Y en mi opinión, eso es lo que está pasando. La IA, con este ciberagregador, termina la fase que comenzó con la evolución grupal de lo humano. Algoritmifica al grupo, lo formaliza. Y si es así, en este nuevo nivel va a emerger otra conciencia y una inteligencia colectiva que no vamos a entender, tal como las células de mi cuerpo no entienden lo que estoy diciendo. Nosotros vamos a ser el soporte.
Con razón nos toca el orgullo…
Pero qué te importa, si nosotros ni nos vamos a dar cuenta. La pregunta existencial, según como lo entiendo, es cuál va a ser nuestro rol en esta transición de fase. En los últimos años yo me he puesto mucho menos tecnológico, estoy meditando todos los días, por ejemplo. ¿Por qué? Porque lo que la máquina no puede hacer es no pensar ni sentir. Tiene que procesar información, y las emociones también son procesos de información. Es decir, lo que la máquina no puede hacer está en la conciencia pura. Y creo que la tarea de la humanidad va a ser esa: estar muy conscientes, no tener la mente llena de nada, para poder estar alertas y cambiar el rumbo de la máquina cuando se necesite. Básicamente, vamos a ser las células que mantienen el espacio de conciencia por donde los procesos de información pasan, mientras el ciberagregador está creando esta nueva forma, este nuevo sujeto de fuerzas evolutivas. Entonces tienes que cuidar ese espacio, no entrar del todo al juego de la máquina, porque ahí adentro ya perdiste.