Thomas Sargent, Nobel de Economía: “La IA es una nueva forma de hacer algo que practicamos hace mucho tiempo”
El renombrado economista, ganador del Premio Nobel en 2011, visitó la Universidad Andrés Bello (UNAB) para realizar una charla magistral donde señaló que la IA ha estado presente desde siglos en la historia y exploró su relación con la física y la economía.
Liderazgo y conocimiento en nuestro boletín semanal
“Quedé fascinado con la charla, muy entretenida, muy fácil de seguir y de entender. Se valora que un Premio Nobel haya venido a la Universidad Andrés Bello a explicarnos con peras y manzanas en qué consiste la inteligencia artificial”, dice Jorge Rojas, director del Magíster en Economía y Ciencia de Datos de la UNAB, y uno de los asistentes a la charla que el pasado miércoles 27 de noviembre dio Thomas Sargent en el campus Casona de Las Condes, invitado por la Facultad de Economía y Negocios de la casa de estudios.
El economista estadounidense, galardonado en 2011 por su contribución al análisis causal en la macroeconomía, dio una charla magistral donde el tema central fue el fenómeno de la Inteligencia Artificial.
El también académico de la Universidad de Nueva York, abordó los orígenes de la IA para señalar que, aunque parece una invención reciente, se ha estado desarrollando desde hace siglos y se ha expresado en la forma de operar de destacados pensadores y científicos.
Partió definiendo qué entiende por inteligencia en términos de acciones. “Hay tres cosas que hacemos que pienso que son inteligentes”, señaló. La primera es el reconocimiento de patrones. “Estamos abrumados de datos, no podemos recordarlos todos. Los resumimos a hechos más simples para hacer estereotipos. Los agrupamos”.
La segunda cosa que hacemos es organizar. Generalizamos, extrapolamos más allá de los datos, para formar creencias acerca de cosas nuevas y experiencias.
La tercera acción es la toma de decisiones, sobre la base de la generalización que hicimos del reconocimiento de patrones.
Luego señaló que la IA es una máquina o un computador que hace una o más de esas tres actividades. “Se da una paradoja, porque quienes hacen la inteligencia artificial son las personas; son los seres humanos quienes usan la inteligencia humana para crear inteligencia artificial”, apuntó.
Para hablar de los seres humanos, el economista citó a Steven Pinker, psicólogo y científico cognitivo, quien señala que hay cuatro áreas en las que estamos “más incapacitados cognitivamente”, porque nuestro cerebro estaría diseñado para la supervivencia más que para las demandas modernas del pensamiento lógico científico.
Estos ámbitos son las estadísticas, la biología, la economía y la física, y desde ahí mismo han nacido las herramientas que han desarrollado la Inteligencia Artificial. Es como si le hubiéramos torcido la mano al destino.
Una poderosa reflexión que fue compartida por los asistentes a su intervención: “Aunque parecen ser las disciplinas que les imponen más dificultades al cerebro humano, tenemos que profundizar en su conocimiento, porque son parte de las bases del desarrollo científico contemporáneo, de lo que nos viene en el futuro”, dice Miguel Vargas, decano de la Facultad de Economía y Negocios UNAB.
“Lo interesante es cómo va conectando una cosa con otra como para descubrir que la inteligencia artificial está ahora con nosotros, pero en realidad está hace siglos también”, agrega Felipe Morandé, doctor en Economía y ex ministro de esa cartera entre 2010 y 2011.
Tolomeo, Copérnico y Kepler: precursores del big data
Durante su exposición, Thomas Sargent volvió a los siglos XVI y XVII para demostrar que los autores de la revolución científica estaban haciendo IA al momento de llevar a cabo sus descubrimientos, por su forma de aproximarse a los fenómenos de la naturaleza.
“Cada uno de ellos estaba haciendo IA de distintas formas para aprender algo nuevo sobre el mundo”. “No eran buenos en ventas, pero si lo hubieran sido, habrían sido ricos”, bromeó.
Sargent partió su relato histórico refiriéndose al astrónomo griego Tolomeo, quien era un hombre de muchos datos, que extraía de la observación de la naturaleza, del movimiento de los planetas, reconociendo patrones. Así desarrolló el modelo geocéntrico.
Nicolás Copérnico, siglos después, hizo calzar los datos, algo propio del machine learning, para crear su nuevo modelo heliocéntrico. Luego, Johannes Kepler comenzó a trabajar sobre este y desarrolló sus famosas leyes del movimiento planetario.
“¿Qué estaban haciendo estos tipos? Estaban haciendo big data con lo que les entregaba la naturaleza. Sin experimentos. Los datos venían de observar los planetas y lo que había alrededor”, señaló.
También citó a Charles Darwin, quien “no era una persona de números, era un tipo cualitativo. Lo que él hace es estudiar de dónde vienen las nuevas especies y lo que tenía era un set de muchos datos de sus observaciones”, dijo Sargent.
Darwin, a través de sus experimentos, que era la generación de datos propios más allá de la observación, consiguió un par de aproximaciones a lo que sería su teoría, pero no conseguía explicar la selección natural. El autor de “El origen de las especies” obtendría la idea clave del economista británico Thomas Malthus, quien estableció que una población que se reprodujera más rápido que el suministro de alimentos debería competir por él.
“Lo notable es cómo hizo eso, no creo que haya sabido lo que era la célula. La célula había sido descubierta 10 años antes, no sabía lo que era el ADN; lo que era un gen. Esto es macroeconomía. Y no sabía nada del mercado, son los principios que extrae”, apunta Sargent.
La relación con la economía
Para explicar la relación entre lo que hacen los economistas modernos y los físicos, Thomas Sargent recurre a una metáfora del físico Richard Feynman.
El físico, según Feynman, opera como un observador que desconoce las reglas del ajedrez y que debe inferirlas a partir de observar una única partida, considerando que esos son todos sus datos. Sargent dice que “del mismo modo, un físico infiere la ley de la naturaleza a partir de información incompleta de un sistema físico”.
“La relevancia de la metáfora de Richard Feynman para la economía es muy significativa porque describe literalmente lo que un estadístico económico estructural intenta hacer. A partir de observaciones incompletas de precios y cantidades, un estadístico económico busca inferir un juego que generó otro juego de precios y cantidades”, explicó.
“Hay una relación íntima entre lo que Feynman dice que hace y lo que hacemos nosotros. Y ese juego es uno de los grandes componentes de la inteligencia artificial”, añadió. El economista se refiere al paralelo entre hacer inferencias de la naturaleza y hacerlas del mercado.
“Hay muchas cosas nuevas con la IA y el aprendizaje automático. Pero son formas nuevas de hacer cosas de hace mucho tiempo, porque las cosas se abarataron y pudimos hacerlas de maneras que no podíamos hacer antes”, concluyó.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.