Yann LeCun ayudó a dar origen al auge actual de la inteligencia artificial. Pero cree que muchos expertos están exagerando su poder y peligro, y quiere que la gente lo sepa.

Si bien un coro de tecnólogos destacados nos dice que estamos cerca de tener computadores que superen la inteligencia humana, e incluso puedan suplantarla, LeCun se ha ganado agresivamente un lugar como el escéptico con mejores credenciales del auge de la IA.

En las redes sociales, en discursos y en debates, el profesor universitario y gurú de la IA de Meta Platforms se ha enfrentado a los promotores y las Casandras que hablan del potencial sobrehumano de la IA generativa, desde Elon Musk hasta dos de los pioneros compañeros de LeCun, que comparten con él el título no oficial de “padrino” del campo. Entre ellos se encuentra Geoffrey Hinton, un amigo de casi 40 años que el martes recibió el Premio Nobel de Física y que ha advertido repetidamente sobre las amenazas existenciales de la IA.

Yann LeCun, al centro, junto al reciente ganador del Nobel de Física, Geoffrey Hinton (de pie).

LeCun cree que los modelos de IA actuales, aunque útiles, están lejos de rivalizar con la inteligencia de nuestras mascotas, y mucho menos con la nuestra. Cuando le pregunto si deberíamos tener miedo de que las IA pronto se vuelvan tan poderosas que representen un peligro para nosotros, bromea: “Vas a tener que perdonar mi francés, pero eso es una completa tontería”.

En persona, LeCun tiene un encanto cautivador: travieso, ingenioso y dispuesto a decir lo que él considera las duras verdades de su campo. A sus 64 años, luce elegante y un poco desaliñado al mismo tiempo, como corresponde a un ex parisino que ahora es profesor en la Universidad de Nueva York. Sus anteojos son los clásicos Ray Ban negros, casi idénticos a uno de los modelos de Meta con inteligencia artificial. (Los Ray Ban de LeCun con inteligencia artificial dejaron de funcionar después de un chapuzón en el océano cuando estaba navegando, una de sus pasiones).

Sentado en una sala de conferencias dentro de una de las oficinas satélite de Meta en la ciudad de Nueva York, irradia calidez y afable serenidad, y expresa sus mordaces opiniones con el tipo de sonrisa que te hace sentir como si estuvieras en la broma.

Su trabajo y su posición en la cima de uno de los laboratorios de investigación de inteligencia artificial más destacados de una de las empresas tecnológicas más grandes dan peso a las críticas de LeCun.

Nacido y criado al norte de París, se sintió intrigado por la IA en parte debido a HAL 9000, la IA rebelde del clásico de ciencia ficción de Stanley Kubrick de 1968 2001: Odisea del espacio. Después de obtener un doctorado de la Sorbona, trabajó en los históricos Bell Labs, donde se inventaron todo, desde transistores hasta láseres. Se unió a la Universidad de Nueva York como profesor de informática en 2003 y se convirtió en director de investigación de IA en lo que entonces era Facebook una década después.

En 2019, LeCun ganó el premio A.M. Turing, el premio más importante en informática, junto con Hinton y Yoshua Bengio. El premio, que llevó al trío a ser apodado los padrinos de la IA, los honró por el trabajo fundamental para las redes neuronales, los sistemas multicapa que sustentan muchos de los sistemas de IA más poderosos de la actualidad, desde los chatbots de OpenAI hasta los autos autónomos.

Hoy, LeCun sigue produciendo artículos en la Universidad de Nueva York junto con sus estudiantes de doctorado, mientras que en Meta supervisa una de las organizaciones de investigación de IA mejor financiadas del mundo, como científico jefe de IA en Meta. Se reúne y chatea a menudo por WhatsApp con el director ejecutivo Mark Zuckerberg, que está posicionando a Meta como la gran fuerza disruptiva del auge de la IA frente a otros pesos pesados de la tecnología, desde Apple hasta OpenAI.

Debates con amigos

LeCun se enfrenta a rivales y amigos por igual. Tuvo una desagradable discusión con Musk en X esta primavera sobre la naturaleza de la investigación científica, después de que el multimillonario publicara una promoción de su propia empresa de inteligencia artificial.

LeCun también ha discrepado públicamente con Hinton y Bengio sobre sus repetidas advertencias de que la IA es un peligro para la humanidad.

Bengio dice que está de acuerdo con LeCun en muchos temas, pero difieren sobre si se puede confiar en las empresas para asegurarse de que las futuras IA superhumanas no sean utilizadas maliciosamente por los humanos o desarrollen sus propias intenciones maliciosas.

“Espero que tenga razón, pero no creo que debamos dejar que la competencia entre empresas y el afán de lucro sean los únicos responsables de proteger al público y la democracia”, afirma Bengio. “Por eso creo que necesitamos que los gobiernos se involucren”.

LeCun cree que la IA es una herramienta poderosa. A lo largo de nuestra entrevista, cita muchos ejemplos de cómo la IA se ha vuelto enormemente importante en Meta y ha impulsado su escala e ingresos hasta el punto de que ahora está valuada en alrededor de 1,5 billones de dólares. La IA es parte integral de todo, desde la traducción en tiempo real hasta la moderación de contenido en Meta, que además de su equipo de investigación fundamental de IA, conocido como FAIR, tiene un grupo de IA centrado en productos llamado GenAI que está buscando versiones cada vez mejores de sus grandes modelos de lenguaje.

“El impacto en Meta ha sido realmente enorme”, dice.

Facebook / Meta

Al mismo tiempo, está convencido de que las IA de hoy no son, en ningún sentido significativo, inteligentes, y que muchos otros en el campo, especialmente en las empresas emergentes de IA, están listos para extrapolar su desarrollo reciente de maneras que él encuentra ridículas.

Si las opiniones de LeCun son correctas, esto significa problemas para algunas de las empresas emergentes más importantes de la actualidad, por no mencionar a los gigantes tecnológicos que invierten decenas de miles de millones de dólares en IA. Muchos de ellos apuestan por la idea de que las grandes IA basadas en modelos de lenguaje actuales, como las de OpenAI, están en el camino a corto plazo de crear la llamada “inteligencia general artificial” o AGI, que supera ampliamente la inteligencia a nivel humano.

Sam Altman, de OpenAI, dijo el mes pasado que podríamos tener AGI en “unos pocos miles de días”. Elon Musk ha dicho que podría suceder en 2026.

LeCun dice que es probable que esas conversaciones sean prematuras. Cuando un investigador que se iba de OpenAI en mayo habló sobre la necesidad de aprender a controlar una IA ultrainteligente, LeCun se abalanzó. “Me parece que antes de ‘averiguar urgentemente cómo controlar sistemas de IA mucho más inteligentes que nosotros’ necesitamos tener el comienzo de un indicio de un diseño para un sistema más inteligente que un gato doméstico”, respondió en X.

Le gusta la metáfora del gato. Los felinos, después de todo, tienen un modelo mental del mundo físico, memoria persistente, cierta capacidad de razonamiento y capacidad de planificación, dice. Ninguna de estas cualidades está presente en las IA “de vanguardia” de la actualidad, incluidas las creadas por la propia Meta.

Léon Bottou, que conoce a LeCun desde 1986, dice que es “obstinado en el buen sentido”, es decir, dispuesto a escuchar las opiniones de los demás, pero decidido en su búsqueda de lo que él cree que es el enfoque correcto para construir inteligencia artificial.

Alexander Rives, un ex estudiante de doctorado de LeCun que desde entonces ha fundado una empresa emergente de IA, dice que sus provocaciones están bien pensadas. “Tiene un historial de ser realmente capaz de ver lagunas en la forma en que el campo piensa sobre un problema y señalarlo”, dice Rives.

La IA en tu cara

LeCun cree que la verdadera inteligencia artificial general es un objetivo loable, en el que Meta también está trabajando.

“En el futuro, cuando la gente hable con su sistema de IA, con sus lentes inteligentes o con cualquier otra cosa, necesitaremos que esos sistemas de IA tengan básicamente características de nivel humano, que realmente tengan sentido común y que se comporten realmente como un asistente humano”, afirma.

Pero crear una IA tan capaz podría llevar fácilmente décadas, afirma, y el enfoque dominante actual no nos llevará hasta allí.

El auge de la IA generativa ha sido impulsado por grandes modelos de lenguaje y sistemas similares que se entrenan en océanos de datos para imitar la expresión humana. A medida que cada generación de modelos se ha vuelto mucho más poderosa, algunos expertos han llegado a la conclusión de que simplemente verter más chips y datos en el desarrollo de futuras IA las hará cada vez más capaces, y en última instancia igualarán o superarán la inteligencia humana. Esta es la lógica detrás de gran parte de la inversión masiva en la construcción de grupos cada vez mayores de chips especializados para entrenar a las IA.

LeCun cree que el problema con los sistemas de IA actuales es cómo están diseñados, no su escala. No importa cuántas GPU introduzcan los gigantes tecnológicos en los centros de datos de todo el mundo, afirma, las IA actuales no nos van a proporcionar una inteligencia artificial general.

Su apuesta es que la investigación sobre IA que funcionen de una manera fundamentalmente diferente nos pondrá en el camino hacia una inteligencia de nivel humano. Estas IA futuras hipotéticas podrían adoptar muchas formas, pero el trabajo que se está realizando en FAIR para digerir videos del mundo real es uno de los proyectos que actualmente entusiasman a LeCun. La idea es crear modelos que aprendan de una manera análoga a cómo lo hace un animal bebé, construyendo un modelo del mundo a partir de la información visual que absorbe.

Los grandes modelos de lenguaje, o LLM, utilizados para ChatGPT y otros bots algún día podrían tener solo un papel pequeño en sistemas con sentido común y habilidades similares a las humanas, construidos utilizando una variedad de otras técnicas y algoritmos.

Los modelos actuales en realidad solo predicen la siguiente palabra en un texto, dice. Pero son tan buenos en esto que nos engañan. Y debido a su enorme capacidad de memoria, pueden parecer que están razonando, cuando en realidad solo están regurgitando información para la que ya han sido entrenados.

“Estamos acostumbrados a la idea de que las personas o entidades que pueden expresarse o manipular el lenguaje son inteligentes, pero eso no es cierto”, dice LeCun. “Se puede manipular el lenguaje y no ser inteligente, y eso es básicamente lo que están demostrando los LLM”.

Traducido por Qué Pasa