Hace 20 años, Martin Hilbert y sus colegas conversaban sobre el futuro de la tecnología. Estaba en Chile, en un barrio bohemio de Santiago, mientras conversaban entre cervezas cómo debía ser una inteligencia artificial si algún día llegaba a convertirse en realidad.
De lo que hablaron, se acuerdan de que ésta debía cumplir con al menos tres reglas: No debía estar conectada a la internet pública, no debía aprender a programarse a sí misma y no debía estar a disposición de niños o personas sin el conocimiento adecuado. Ahora que la IA es una realidad, Hilbert se lamenta de lo tarde que estamos para regular a esta tecnología. “Metimos la pata”, reconoce.
Nació en Alemania y ahora es un importante académico en la Universidad de California Davis. Vivió 11 años en Chile, su español es perfecto y sus modismos chilenos son bastante aceptables. Ha estudiado los algoritmos y el proceso de la revolución digital prácticamente desde sus inicios.
Es experto en información, comunicación y conocimiento en el desarrollo de sistemas sociales complejos. Además, es creador y coordinador del Programa Sociedad de la Información de la comisión regional de la CEPAL, y por 15 años fue Oficial de Asuntos Económicos de la ONU, prestando asistencia técnica en el campo del desarrollo digital en más de 20 países.
Pasamos la era del Big Data, de la cuantificación de la información en el mundo, y ahora nos afrontamos a una etapa donde intentamos descubrir cómo una tecnología novedosa realiza sus procesos sin que le indiquen el cómo. Martin Hilbert estará presente en esta versión de Congreso Futuro, donde tratará de advertir qué hacer con los incipientes problemas que puede traer una inteligencia artificial desregulada.
Martin Hilbert: “Nos golpea el orgullo que ahora las máquinas sean mejores que nosotros”
¿En qué etapa de la Inteligencia artificial nos encontramos?
Soy alemán, tengo permiso para inventar palabras largas que nadie puede pronunciar. Yo diría que estamos en la etapa de la “algoritmización”, que es al conocimiento lo que la digitalización es a la información. Así que estamos automatizando el proceso de conocimiento.
Las cinco empresas más valiosas de la historia de la humanidad: entre ellas Google, Facebook y Amazon, se autodenominan empresas de inteligencia artificial. Así que este es el futuro, ¿verdad?
La inteligencia artificial ya gobierna el mundo. Y se trata de la automatización del proceso de conocimiento. Y eso obviamente toca al Homo sapiens, el que supuestamente está a cargo del conocimiento. Nos golpea el orgullo que ahora las máquinas sean mejores que nosotros en este negocio.
¿Cuánto podemos confiar en que las máquinas puedan hacer trabajos que generalmente antes no hacían?
Bueno, es tan confiable que le damos instrucciones. Hay un cambio de paradigma que aún no hemos interiorizado. El proceso normal del conocimiento, tal como lo enseñamos en la escuela y como lo hacemos en nuestro trabajo diario, consiste en tener observaciones de dónde está la realidad, llamémosles datos, y vemos qué hacer con eso. Nos encanta resolver cosas, resolver el rompecabezas.
Entonces, vemos la realidad y la mejor manera de hacer las cosas y luego la computamos, la ejecutamos para tener un resultado, una meta. Queremos alcanzar una meta. Y lo hacemos con observaciones y procesos. Ahora bien, el paradigma de la inteligencia artificial hoy en día es el aprendizaje automático.
Le dio la vuelta a nuestras cabezas. Entonces, antes de que tuviéramos datos y procesos, los llamábamos algoritmos, para lograr un objetivo. Ahora los insumos son datos y objetivos. Solo le damos datos y objetivos. Ya no somos los humanos que encontramos la mejor manera de resolver el rompecabezas. No. Y eso toca tanto al Homo sapiens en nuestro orgullo.
¿Y cuál es la principal característica de la IA?
Nuestra tarea hoy consiste en ver dónde estamos, darle los datos, y qué datos les damos en la discusión profunda. Y segundo, hacia dónde queremos ir. Eso es todo. Le decimos a la máquina, estamos aquí, queremos ir a Roma. Y hay muchas maneras de llegar a Roma. Es la máquina que resuelve la mejor manera de llegar a Roma.
¿Qué ocurre con las limitaciones éticas de la IA? ¿Estamos en una etapa en la que necesitamos más regulación?
La verdad es que es que ya llegamos un poco tarde. Eso ya lo hemos superado. Y siempre pensamos que tendríamos este momento. Pasé los últimos 25 años pensando que tendríamos este momento, que teníamos que prepararnos, y ahora ya estamos, el momento ha pasado. Lo conectamos a internet abierto, ChatGPT y Microsoft están integrados con Bing, están integrados en todos los procesos. Sabe escribir código mejor que mis alumnos.
Y además, lo tenemos integrado en Snapchat. Los niños hablan con inteligencia artificial, un chatbot, e hicieron pruebas con ellos. Amigos aquí en el Centro para la Tecnología Humana hicieron pruebas y dijeron: “Oye, tengo tres años y tengo una cita con un adulto que me triplica la edad. ¿Qué hago para tener sexo con ellos?” Y el chatbot dice: “Oye, pon unas velas”. ¿Estás demente?
¿Y esto es posible demandarlo? ¿A quién culpar de falencias así?
Estoy involucrado en muchas demandas aquí, en Estados Unidos. Lo que hacemos es dejar que el genio salga de la botella, lo que también hace mucho daño y muchos beneficios, y luego tratamos de litigarlo de vuelta a la botella.
En este momento, lo hacemos a las empresas de redes sociales, a las empresas del primer encuentro con la inteligencia artificial. Treinta y tres estados de Estados Unidos, con más de 50 fiscales generales estatales, 200 distritos escolares y más de 2.200 familias están litigando contra Facebook, Google, Facebook e Instagram, Google por YouTube, TikTok y Snapchat por los daños causados a los niños.
¿Qué tanto daño pueden hacer estos algoritmos?
Muchos niños y niñas, por desgracia, han muerto a causa de los algoritmos. Un algoritmo se metió en sus cerebros y cambió el guión a suicidio contra su voluntad, hasta el punto de que se suicidaron. O se suicidaron accidentalmente por el reto de TikTok o algo así.
Ahora bien, la Ley de Neuroderechos que tienes en Chile es un buen comienzo. Será imperfecto, pero al menos es un comienzo para ver qué podemos hacer, porque ese fue el primer encuentro con la inteligencia artificial, el segundo encuentro con la inteligencia artificial que viene ahora, no estamos preparados, ni siquiera cerca.
¿Es suficiente como para controlar irregularidades en algoritmos que pueden influenciar desde lo más trivial hasta elecciones políticas?
Es importante eso, porque en 2024 va a ser el año con más elecciones democráticas de la historia. Por lo tanto, también hay un gran peligro allí.
Creo que Chile tiene una historia que lo prepara muy bien para lidiar con esto. Estaba bien protegido de otras amenazas, en el fin del mundo, detrás de las montañas. Ahora la pregunta es si se puede traducir esta actitud de protección que tenías contra lo que viene ahora, que no viene en un barco o con un avión, sino con redes digitales.
Y creo que la ley de Neuroderechos es un buen comienzo, pero tenemos que ir mucho más allá. Porque para ello no solo se necesita el esfuerzo del poder legislativo para redactar nuevas leyes, sino también del poder judicial. Soy experto independiente explicando cómo funcionan los algoritmos, pero los gringos, cuando sacan los poderes judiciales, los sacan con fuerza.
Así que ahora este año habrá muchas demandas y van a golpear fuerte, al parecer. Y realmente cuando alguien ha hecho daño, se tiene que recurrir a los tribunales de justicia, alguien tiene que ser responsable. Nadie se ha hecho responsable de estos daños hasta ahora.
En Europa ya están empezando con eso, buscando quién es el responsable. Y esos algoritmos suelen ser los responsables. Y los algoritmos son propiedad de empresas, no el contenido. Por ejemplo, los algoritmos de recomendación —como los que te dicen qué ver en Tik Tok, YouTube o Amazon— son un producto propietario de una empresa y son responsables de su producto.
Y ahí el poder ejecutivo necesita algo así como un Servicio Interno para algoritmos. Hacemos esto mucho en ciencia aquí, donde estoy en el Centro de Computación, hacemos auditorías de algoritmos.
Mi pregunta es si Chile puede tomar esta actitud. Mira, no tienes que saber cómo funciona el algoritmo. No hace falta saber cómo lo hicieron en Silicon Valley, pero si ese algoritmo hace daño, lo penalizamos o lo cerramos.
¿Cuál es su principal mensaje para la audiencia del Congreso Futuro?
Creo que la señal de alarma es que tenemos que ser conscientes de que pasamos el momento que siempre pensamos que tendríamos. No hay duda de que la inteligencia artificial es más inteligente, lo será o ya es más inteligente que el humano medio. Ya es más inteligente que el humano promedio en términos de resultados de exámenes, resultados escolares, lo que puede resolver, incluso en términos de cómo conduce un automóvil, que es más seguro que el humano promedio.
¿Qué nos queda? ¿Qué nos queda a los humanos? Mi esperanza es que los humanos sean más que inteligencia. Y eso tiene mucho que ver con la conciencia. La conciencia es el espacio donde están los pensamientos y las emociones. Y los humanos somos capaces de ser conscientes sin pensar y sin sentir. Y la máquina no puede hacer eso.
La sabiduría está ahí. Y para que realmente descubramos las metas, se dice que es súper importante en un paradigma de inteligencia artificial darle la meta, a dónde queremos ir, entender a dónde realmente queremos ir, sin distraernos, estímulo-respuesta, nueva competencia, nueva agresión.
Es súper importante que tengamos la calma, tengamos la sabiduría para decidir a dónde queremos ir. Y para eso, es importante la reflexión individual como la meditación, que muchos de los que estamos aquí, los chicos de la tecnología, hacemos.
Para decirlo en palabras de su compatriota, Francisco Varela: “Cuando un sistema vivo sufre de mala salud, el remedio se encuentra conectándose más con uno mismo”. Eso es lo que hace la vida. Y una forma es reunirnos en el Congreso Futuro, donde esperamos que muchos de ustedes se conecten con nosotros y pregunten: “¿IAhora qué hacemos?”.