Yuval Noah Harari
La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

El escritor israelí, que ha escrito los éxitos Sapiens y Nexus, conversó con el Fondo Monetario Internacional (FMI) sobre los riesgos de la Inteligencia Artificial para la humanidad.


Yuval Noah Harari, célebre autor israelí de Sapiens (2011) y Nexus (2024), ha recorrido la historia de la humanidad y su evolución en sus libros. Y entre los inventos más peligrosos que hemos construido, el intelectual no deja de advertir sobre los peligros de la Inteligencia Artificial (IA).

Y es que según su mirada, esta tecnología podría despojar a los humanos de su más poderosa herramienta: el lenguaje y las narrativas, que nos han permitido dominar el planeta.

Pero cuando existe algo similar al humano que tiene el poder del habla, podrían llegar consecuencias catastróficas.

En conversación con el Fondo Monetario Internacional (FMI), Harari reflexionó sobre un futuro incierto y peligroso, dominado por la IA.

Yuval Noah Harari
La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

Los peligros de la Inteligencia Artificial según Yuval Harari

“Estamos desatando sobre el mundo la tecnología más poderosa jamás creada”, comenzó a decir el autor Yuval Noah Harari, en conversación con el FMI.

Según el israelí, la IA “es radicalmente diferente de la imprenta, la bomba atómica y cualquier otra invención. Es la primera tecnología de la historia que puede tomar decisiones y crear nuevas ideas por sí misma”.

“Una bomba atómica no puede decidir dónde detonar; la IA, sí. Puede tomar decisiones financieras e inventar instrumentos financieros sola, y la IA que conocemos en 2024, es apenas la forma rudimentaria de esta revolución. No tenemos idea de lo que se viene”.

Por otra parte, Harari explicó que hay muy pocos países pioneros de la IA, por lo que, “si nos descuidamos, vamos a vivir una repetición de la Revolución Industrial a la enésima potencia”.

Ejemplificó con el siglo XIX, cuando solo Gran Bretaña, Estados Unidos, Japón y Rusia se subieron al vertiginoso cambio en la industrialización, mientras el resto de los países no entendía qué ocurría.

IA
La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

“Pero al cabo de unas décadas, el mundo entero estaba directamente conquistado o indirectamente dominado por estas pocas potencias industriales. Hay muchos países que recién ahora están comenzando a recuperarse del daño causado por esa conquista industrial”.

Es decir, Harari advirtió de los peligros de que esta tecnología esté monopolizada por unos cuantos países y que “los demás terminen explotados y dominados de maneras que no tienen precedente histórico”.

También alertó de que la IA se tome las narrativas que antes eran humanas y que las sociedades cambien por completo.

“Con la llegada de la IA, por primera vez las historias que sustentan las sociedades humanas son fruto de una inteligencia no humana”.

Es decir, narraciones que son religiosas o financieras podrían estar hechas por una Inteligencia Artificial, “y el riesgo es que ningún ser humano sea capaz de comprenderlos, y mucho menos regularlos”.

IA
La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

“La IA puede ser enormemente beneficiosa, pero si se descontrola puede plantear un peligro existencial. Para mí, IA no es la abreviatura de Inteligencia Artificial, sino de Inteligencia Alienígena”.

Continuó: “No alienígena porque provenga del espacio exterior, sino porque sale de nuestros propios laboratorios. Es alienígena en el sentido de que toma decisiones e inventa ideas de una manera fundamentalmente diferente a la humana”.

“Es un tipo alienígena de inteligencia. Y es muy peligroso dejar libres por el mundo a miles de millones de agentes alienígenas sin tener manera de controlar que utilicen su enorme poder en beneficio nuestro”.

Cómo la IA cambiará la economía según Yuval Harari

En la conversación con el FM, Yuval Noah Harari también se centró en que los humanos somos los únicos que podemos imaginar el futuro a través de narraciones, pero eso podría cambiar drásticamente con los nuevos avances en tecnología y, por ende, las sociedades pueden cambiar en formas inimaginables.

Para explicar lo anterior, el autor ejemplificó con el dinero: los humanos construimos una narración sobre lo que es, pero para Harari, “no tiene valor objetivo. Uno no puede comer ni beber billetes ni monedas, pero puede darle a un extraño un trozo de papel que no vale nada a cambio de un pan que sí puede comer”.

“La premisa fundamental es que todos creemos en la misma narrativa sobre el dinero; si dejamos de creer, todo se viene abajo”.

Por ejemplo, las bitcoin no tienen ningún valor intrínseco, sino que la narración o las historias que las personas le dan, hace que sean muy valiosas.

Pero ahora, con la llegada de la IA, las narraciones humanas que bien conocemos pueden llegar a desaparecer y ser reemplazadas por otras, que son difíciles de entender y que estarían creadas, por primera vez en la historia, por inteligencias que no son humanas.

Para el israelí, la economía del dinero pasará pronto a ser una economía basada en el intercambio de la información.

Centro de datos IA
La advertencia de Yuval Noah Harari: “Una bomba atómica no puede decidir dónde detonar. La IA, sí”. Foto: REUTERS.

“Le doy un ejemplo: una de las empresas más importantes en mi vida es Google. La uso todos los días, todo el día. Pero mi estado de cuenta del banco no muestra ningún canje de dinero; ni yo le pago a Google ni Google me paga a mí. Lo que me da Google es información”.

Continuó: “(...) Y el poder, la riqueza y el significado de la riqueza pasan de tener mucho dinero a tener muchos petabytes de información”.

“¿Qué ocurre cuando la gente y las empresas más poderosas son ricas en el sentido de que tienen una gigantesca cantidad de información almacenada que ni siquiera se molestan en monetizar, en canjear por dinero, porque pueden obtener todo lo que quieren a cambio de información? ¿Para qué necesitamos dinero? Si la información sirve para comprar bienes y servicios, el dinero resulta innecesario”.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.