Su estampa y modos suecos aparecen nítidos en la pantalla de Zoom. Influyente pensador, Nick Bostrom tiene el récord de ser el filósofo profesional menor de 50 años más citado. Fue de los primeros en advertir que la inteligencia artificial era un riesgo existencial para la humanidad, desarrollando su idea de “alineación” de la IA, esto es, orientarla hacia los objetivos, preferencias o principios éticos de los humanos. Fundó y dirige en la Universidad de Oxford el Instituto para el Futuro de la Humanidad, desde donde piensa el devenir. Dice que mirar desde una perspectiva histórica “es un poco deprimente cuando ves cuánto ha pasado a través de los tiempos”, pero, por otro lado, es optimista “porque no importa lo mal que estén las cosas ahora, ha habido muchos ejemplos durante nuestra historia donde las cosas han sido peores y las hemos modelado”, dice desde Oxford.
Bostrom piensa que para hacer progreso intelectual hay que dividir la pregunta del futuro tecnológico en varios componentes, “tratar de encontrar conceptos que permitan abordar la gran confusión general en preguntas más pequeñas, más atractivas y más investigables”.
Dice que es complejo avanzar en soluciones comunes para el desafío de la IA por la falta de cooperación propia de la especie. “Hay muchos desafíos que están empeorando por el hecho de que, como civilización humana, tenemos una sabiduría bastante limitada, así como también es limitada nuestra capacidad para cooperar, particularmente a nivel internacional. El que estemos divididos en diferentes facciones rivales y diferentes países y coaliciones, que generalmente funcionan con propósitos opuestos, hace que sea mucho más difícil resolver toda una gama de problemas que enfrentamos. Entonces, en cierto sentido, se podría rastrear la raíz que causa algunas de estas dificultades fundamentalmente en una combinación de falta de sabiduría y falta de cooperación”, sostiene.
Usted fue uno de los primeros en advertir sobre los peligros de la inteligencia artificial. ¿Aún considera esto un riesgo existencial para la humanidad?
Si nos remontamos a los años 90, cuando comencé a pensar en estas cosas, parecía claro que incluso cuando el proyecto de investigación de IA tuviera éxito, nos enfrentaríamos a un desafío muy profundo. Es decir, cuando construimos mentes mecánicas que son más inteligentes que las mentes humanas y potencialmente más capaces y poderosas, ¿cómo podemos asegurar que estas mentes permanezcan de nuestro lado y sean una extensión de los valores humanos en lugar de una fuerza antagónica que nosotros produjimos? Y creo que hemos desperdiciado dos o tres décadas que podrían haber servido para prepararnos para el momento al que parece que ahora nos acercamos.
¿Qué se debería haber hecho?
Podríamos haber estado haciendo investigación básica sobre el problema de la alineación, por ejemplo, de modo que tal vez ya habríamos desarrollado métodos capaces para el control de la IA. Ahora la gente está luchando en los principales laboratorios de IA. Si todos hubieran establecido grupos de investigación para intentar trabajar en la alineación de la IA, es un poco tarde para empezar con esto, deberíamos haber estado haciendo nuestra tarea, pero más vale tarde que nunca, y yo espero que el tiempo restante sea suficiente para encontrar algunas soluciones viables a este problema. Creo que además de eso hay otros desafíos importantes, uno es el problema de la gobernanza y el otro es más ético.
En el mundo de hoy parece muy difícil llegar a acuerdos globales de gobernanza.
Creo que somos muy débiles en términos de coordinación global, y en este momento hay tensiones particularmente entre Estados Unidos y China, las mayores potencias en este espacio, lo cual no ayuda. Habría sido mucho mejor si a lo largo de los años hubiéramos desarrollado una relación amistosa y constructiva, lo que obviamente haría mucho más fácil encontrar puntos en común. Pero tenemos que sacar lo mejor que podamos de la situación en la que nos encontramos, y creo que el problema de la gobernanza posee distintos aspectos. Uno tiene que ver con este problema de alineación, en eso se ha centrado gran parte de mi trabajo sobre la gobernanza de la IA. Se podría imaginar una situación en la que nos acerquemos a la inteligencia artificial general con una perspectiva de superinteligencia radical. Y tal vez haya muchos laboratorios diferentes compitiendo para conseguir ser el primero, tal vez diferentes países estén compitiendo. Ahora, lo que idealmente desearías en esta situación, es que quien quiera que desarrolle la suprainteligencia tenga la capacidad en las etapas finales de ir más lento, de ser realmente cuidadoso en lugar de inmediatamente, tan pronto como pueda, simplemente lanzarse a la acción, a la IA radical sobrehumana. Podría ser mejor tomarnos seis meses o más de un año para comprobar realmente que, cualesquiera que sean las técnicas de seguridad que tengamos, estén funcionando correctamente. Si tienes una situación en la que tienes 20 laboratorios diferentes trabajando codo con codo para intentar llegar primero, entonces es muy difícil ver cómo se puede hacer esto. Si un laboratorio decide ser cauteloso, inmediatamente se queda atrás y la carrera beneficia al que toma menos precauciones. Sería una situación muy indeseable, por lo que un aspecto del desafío de gobernanza es tratar de mitigar esta dinámica de carrera, para permitir la colaboración al menos entre quizás los dos, tres o cuatro laboratorios líderes, para que puedan trabajar juntos en lugar de competir entre sí.
¿Qué otros desafíos de gobernanza propone la IA?
Si hacemos zoom in, hay una enorme variedad de desafíos para los gobiernos, desde los derechos de propiedad intelectual involucrados en el uso de datos de entrenamiento hasta la aplicación en vigilancia, guerra con drones, discriminación y todo tipo de cuestiones que son continuas con otras con las que todos estamos lidiando. Y luego tenemos problemas relacionados con la posibilidad de uso indebido: si, por ejemplo, el modelo de lenguaje de próxima generación, GPT5, se presta para ayudar a los usuarios con delitos cibernéticos o fabricar agentes químicos o biológicos, lo cual es un problema potencialmente grave que probablemente también requiera algún tipo de atención por el lado de la gobernanza para evitarlo.
También ha declarado que los humanos tenemos que adaptarnos a esta nueva era de la inteligencia artificial, entre otras cosas, entendiendo que nuestra necesidad de trabajo cambiará sustancialmente. ¿Cómo? ¿Se van a necesitar políticas públicas como el Ingreso Global Universal?
Estoy trabajando en un libro que toca algunas de estas cuestiones. Creo que a medida que avancemos en esta transición de esta era, la necesidad de mano de obra humana cambiará y se reducirá. Y, en última instancia, si las máquinas pueden hacer todo lo que nosotros podemos hacer y mejor, el trabajo humano ya no será necesario y tendremos que repensarlo. Económicamente, la gente necesitará una fuente de ingresos, tal vez llegue la renta básica universal. Y más allá de eso, hay un sentido de dignidad, de autoestima, un sentido de la vida que para muchas personas hoy en día está conectado con su trabajo, con su sentido de ganar su sustento o en ser un aporte a la sociedad. Si ya no necesitaremos trabajar, debemos repensar la base sobre la que fundamentamos nuestra identidad. Y en general soy optimista al respecto.
¿Por qué?
Si solucionamos estos otros problemas, también seremos capaces de descubrir algo bastante bueno en este espacio económico y filosófico. Con respecto al ángulo económico, lo bueno es que precisamente en estos escenarios donde la acción de AI tiene éxito y es capaz de eliminar muchos empleos humanos, en esos mismos escenarios habrá un rápido crecimiento económico que hará expandirse dramáticamente la torta, de modo que realmente sería posible tener una renta básica universal. En esos escenarios, realmente se extiende mucho el desempleo humano debido al progreso de la IA, pero también hay un rápido crecimiento económico, lo que hace que el problema tenga solución. Y también creo que nuestra cultura puede cambiar.
¿En qué sentido?
Puede crear cierta perturbación y turbulencia durante la transición, pero en última instancia creo que podemos encontrar una nueva base para el valor humano, la idea de que estamos contribuyendo a la sociedad. Ya tenemos grandes ejemplos de muchas personas que no contribuyen económicamente a la sociedad pero que, sin embargo, viven una vida feliz y tienen valor y estima por lo que son.
¿Qué pasa con la muerte? Porque, desde su punto de vista, esa es otra cosa que tenemos que repensar.
Haría la distinción entre inmortalidad -no morir nunca- versus longevidad... Sí creo que con la superinteligencia de las máquinas desbloquearíamos un espacio mucho mayor de posibles modos de ser, formas en que el ser humano podría cambiar, modificar, mejorar sus capacidades de muchas maneras diferentes. Hoy en día es posible que tengas una cadera de titanio o un lente de contacto, o alguna modificación relativamente superficial, pero con una tecnología madura puedes remodelarte mucho más profundamente y extender tu vida, aumentar tus otras capacidades de varias maneras. Y creo que el futuro más realista en última instancia, si sobrevivimos, no es que sigamos siendo como somos hoy, sino que utilicemos estas capacidades técnicas para cambiar la naturaleza humana de maneras muy profundas.
Se le ha retratado como un filósofo transhumanista. ¿Lo es? ¿Y cómo dialogan estas ideas del transhumanismo con buscar la solución al dolor y el sufrimiento de la gente hoy?
No me llamaría transhumanista, porque el término está muy mal definido y para mucha gente significa cosas diferentes, por lo que no es un término con el que me gustaría asociarme. Pero a medida que avancemos con la IA y también con otras fronteras tecnológicas, creo que la naturaleza humana misma será algo que estará cada vez más bajo nuestro propio control, algo que será posible rediseñar. Y eso levanta muy profundas cuestiones éticas. No tengo la respuesta a todas ellas: en lugar de pensar en ello como una cuestión de todo o nada, debemos centrarnos en aplicaciones específicas y tratar de pensar si eso podría ser deseable o no. Acepto tu punto de que hay varias cuestiones muy apremiantes en el mundo de hoy, eso es cierto. Y creo que, al mismo tiempo, es importante que, al menos para una pequeña parte de nuestra mente global, mantengamos un ojo hacia dónde vamos, y esto es algo en lo que la civilización humana ha sido bastante mala.
¿Por qué?
Avanzamos dando tropezones, pero en realidad no prestamos atención a si estamos avanzando en la dirección correcta, a menos que levantemos la cabeza, miremos a nuestro alrededor y tratemos de comprender cuál es el panorama. Es posible que estés caminando lejos y que al final te encuentres en un mal lugar, por lo que creo que también es importante que al menos algunas personas traten de prestar atención a lo que les espera en el camino. Y tratar de traer eso también al presente, para que podamos avanzar hacia futuros más deseables.
¿Cree que la inteligencia artificial pueda ser parte de la solución, o al menos de la mitigación, del cambio climático, por ejemplo?
Creo que si hacemos bien esta transición a la IA, puede ser de gran ayuda para muchos problemas diferentes, incluido el medio ambiente. Por ejemplo, en el desarrollo de fuentes de energía renovables más baratas y también de muchas otras maneras. Otra área sería la medicina, donde hay enormes necesidades entre la población que envejece, y podríamos analizar casi área por área en muchos campos. Si tenemos una IA bien alineada, eso podría ayudarnos y podríamos avanzar mucho más rápido. Por lo tanto, sigo creyendo que implica un riesgo significativo desarrollar superinteligencia de máquinas, incluyendo riesgo existencial, pero también hay otro lado. Tiene un enorme potencial para ayudar a la gente si lo hacemos bien. Por eso creo que será una tragedia si nunca desarrollamos la superinteligencia. Eso sería una catástrofe en sí misma.
Usted usa a los humanos y los gorilas como ejemplo. Eran parte del mismo grupo, pero ahora los gorilas están casi extintos y los humanos dominan el mundo. ¿Qué necesita la humanidad para no ser los nuevos gorilas ante la aparición de esta superinteligencia?
Los neandertales también serían un buen ejemplo. Tenemos una gran ventaja en comparación con ellos: seremos nosotros quienes construyamos estas IA. No surgen naturalmente, nosotros hacemos el diseño y les damos forma. Así que tenemos una gran oportunidad de hacerlo bien y, tal vez, lograr algo -metafóricamente- más cerca de la relación entre un padre y un hijo, donde tal vez en última instancia el niño supere a los padres; pero si todo va bien, el niño todavía se preocupa por los padres y tal vez ayude a cuidarlo en la vejez. Y si diseñamos nuestras IA podemos tener una relación en la que serían una especie de continuación nuestra, pero también nuestros ayudantes y una extensión de nosotros mismos. Y eso requiere hacer varias cosas bien, incluido este problema de alineación técnica, y podría requerir un contexto más amplio de suficientemente buena gobernanza. Pero ciertamente creo que -al menos hasta donde sabemos actualmente- parece que todavía hay escenarios posibles en los que esto podría resultarnos muy bien.