Jeff Dean, líder de IA en Google: “La gente subestima el tiempo que tarda un gran cambio tecnológico en abrirse paso”

Lo que para algunos es una revolución en plena marcha que cambiará radicalmente el mundo en poco tiempo, para este experto en inteligencia artificial es más bien un desarrollo excitante que tomará su tiempo. El científico jefe de IA de Google -quien estuvo en el país hace unos días- agrega que sí cree que es necesaria una regulación para la IA, pero plantea que esta debe enfocarse en las diferentes áreas de uso.
Desde el gran “big bang” popular de la inteligencia artificial (a fines de 2023, con la irrupción masiva el modelo conversacional Chat GPT), las discusiones sobre nuestro futuro con la IA se siguen moviendo entre los llamados a la regulación y el entusiasmo por sus posibilidades. En el intertanto, las grandes compañías tecnológicas han seguido integrando progresivamente la IA a sus productos, y -según una encuesta global de IPSOS y Google realizada en 21 países- el optimismo frente a ella ha aumentado a medida que más uso le dan las personas. Si el año pasado quienes manifestaban preocupación por el impacto de la IA y quienes se declaraban entusiastas por su potencial se dividían en partes iguales, hoy los optimistas suman un 57%. Localmente, el optimismo es mayor: en Chile un 71% de los encuestados manifiesta entusiasmo por los potenciales de estas herramientas.
En medio de esta danza de expectativas y advertencias de los nuevos apocalípticos e integrados, Jeff Dean mira la discusión con mesura. Considerado uno de los nombres clave del desarrollo de herramientas fundamentales en la IA como la conocemos, el ingeniero nacido en Hawái es uno de los primeros empleados de Google, donde hizo aportes fundamentales en el desarrollo del buscador como lo conocemos. En 2011 cofundó el proyecto Google Brain, usando redes neuronales profundas para investigar y desarrollar nuevas herramientas de IA. Hoy es el científico jefe de los desarrollos de Google en esa área, como Google DeepMind, incluyendo Gemini, su modelo más avanzado.
“Pensamos constantemente en el producto, no solo en la investigación en términos de desarrollo científico”, explica Dean, quien estuvo en Santiago la semana pasada como invitado principal del foro Latin American Meeting in Artificial Intelligence, Khipu 2025, y conversó con La Tercera sobre su visión en torno a las predicciones y advertencias que se han hecho -incluyendo las de excolegas y compañeros de ruta en la compañía- en este campo.
¿Cuál es su opinión general sobre el estado del debate sobre la IA tras la gran irrupción de Chat GPT y todo lo que vino después?
Creo que cada vez más personas se dan cuenta de lo que pueden hacer con IA. Creo que hay áreas potenciales en las que podría afectar de forma muy positiva, y creo que la gente está entusiasmada con ello. También existe cierta preocupación, con razón, por la desinformación o la creación de imágenes artificiales. Pero creo que es apropiado tener un debate público sobre la IA y ayudar a la gente a comprender qué es, ayudar a los líderes políticos a comprender qué tipo de cosas podrían tener sentido analizar para discutir cómo queremos moldear la evolución de la IA en el futuro. Además, obviamente, la investigación básica continúa avanzando y haciendo que estos modelos tengan cada vez más capacidades.

¿En qué medida el lanzamiento de la versión de Chat GPT que conocimos en noviembre de 2022 y la reacción que provocó en el mundo obligó a los demás actores de este ecosistema a presentar sus desarrollos?
Creo que es un lugar donde hay un montón de participantes, tanto pequeñas empresas como grandes, que trabajan continuamente para mejorar sus modelos y lanzarlos cuando parece que es el momento. Siempre estamos probando nuevos modelos en varios lugares, así que hay un espacio de testeo para recibir comentarios de los usuarios sobre qué funciona bien y qué no.
Pero quedó la impresión de que Chat GPT obligó a los demás actores a adelantar la salida de sus productos, desarrollos que hasta entonces no estaban listos para su uso público según sus propios creadores. ¿No fue así?
Teníamos un chatbot desarrollado internamente que no habíamos publicado, pero lo implementamos y permitimos que lo usaran todos nuestros empleados de Google. Recibimos muchos comentarios positivos sobre cómo mejorarlo. Y eso es parte de la manera en que queremos poner estos modelos a disposición de la gente: de forma lenta y cautelosa, con la retroalimentación recibida en las distintas etapas del proceso. Estábamos en la etapa de recibir comentarios de nuestros usuarios internos, muchos de los cuales fueron muy elogiados, y luego había aspectos del modelo para los que sentíamos que no estábamos del todo listos. Cosas como la factualidad, el hecho de que estos modelos a veces alucinan e inventan cosas. Así que trabajamos activamente para solucionar ese problema. Y luego llegamos a un punto en el que estábamos más satisfechos con muchos de los aspectos en los que se estaba trabajando.
Las advertencias desde adentro
A principios de 2023, Geoffrey Hinton, el así llamado “padrino de la IA” por sus fundamentales aportes a las tecnologías en la base de la revolución de la inteligencia artificial como el desarrollo de redes neuronales y el aprendizaje profundo, golpeó la mesa en la discusión sobre el tema. El físico británico-canadiense anunció que renunciaba a su vínculo con Google -compañía con la que había trabajado desde 2012- para tener la libertad de discutir sobre los peligros del desarrollo de una IA sin control.
En un mundo donde apocalípticos e integrados comenzaban a llevar el debate a todo ámbito, la voz de una autoridad como Hinton llamó la atención. “¿Sabe la humanidad lo que está haciendo”, le preguntó el periodista Scott Pelley, del programa de CBS “60 minutes”. “No”, le contestó Hinton. “Creo que estamos por primera vez en la historia entrando a un período en que tengamos sistemas más inteligentes que nosotros”. Al año siguiente, Hinton fue distinguido con el Premio Nobel de Física (compartido con John J. Hopfield) justamente por sus descubrimientos e invenciones que dieron origen al aprendizaje de máquinas con las redes neuronales artificiales. Jeff Dean, uno de sus compañeros de ruta en proyectos fundamentales como Google Brain, se define a “medio camino” entre las advertencias de Hinton y las posiciones más entusiastas de los optimistas de la IA.

“Hay una amplia gama de opiniones sobre el futuro de la IA. A algunas personas les preocupa la seguridad de estos modelos. Personalmente, no estoy tan de acuerdo en ese aspecto. En cierto modo, creo que hacer que estos modelos sean seguros es un problema de ingeniería. Tenemos una larga trayectoria en el software más tradicional sobre cómo construir sistemas seguros y fiables en cosas como el software de control de aeronaves u otros sistemas críticos para la seguridad. Creo que estamos en la misma situación en la IA. Necesitamos procesos de ingeniería buenos y rigurosos para que los modelos hagan lo que queremos y no lo que no queremos. Y luego, ya sabes, hay una gama de opiniones en el otro extremo, que es como si los modelos de IA fueran geniales y que no deberíamos preocuparnos. Estoy en un punto intermedio. Mucha gente ve los beneficios potenciales de la IA, en temas como la salud y la educación, pero no quiere que se implementen sistemas de IA sin pensarlo”.
Años antes de Hinton y de Chat GPT, en junio de 2022, otro investigador de Google, Blake Lamoine, declaró que el modelo conversacional de IA en el que trabajaba, LaMDA (Language Model for Dialogue Applications), era “sintiente” o “autoconsciente”. Un par de meses antes había expresado su preocupación en un documento interno para la compañía, pero decidió salir a hablar en público cuando vio que sus aprensiones no estaban siendo consideradas, según explicó. Poco después Lamoine sería despedido de Google por infringir sus políticas de confidencialidad. Tras la conmoción provocada por el lanzamiento masivo de Chat GPT en 2023, su historia volvió a recordarse.
¿Cómo deberíamos interpretar que estas voces críticas tan públicas provengan de Google? ¿Es porque Google ha hecho más investigación?
Bueno, creo que hay mucha gente pensando en la IA, investigando en ese ámbito y viendo cómo se pueden usar los modelos en diferentes productos. Creo que muchos, estos modelos pueden tener conversaciones muy realistas si interactúas con ellos. Sienten que, de alguna manera, se comportan como si fueran un conversador humano. Y creo que algunos creen que eso significa que estos modelos están empezando a ser …
“Sintientes”...
Sí, yo no usaría esa palabra, pero entiendo cómo podría pensar la gente. Esa es la palabra que usó y llamó mucho la atención. Para mí, son solo un modelo probabilístico del lenguaje. Solo eso. Pero cada vez son más capaces. Y en algún momento eso empieza a convencer a algunos de que tienen propiedades interesantes.

¿Cómo ve los diferentes enfoques frente a una regulación de la IA entre la Unión Europea -con un enfoque basado en sus riesgos- y Estados Unidos, que opera después, en atención a asuntos comerciales como la competencia?
Me parece que está claro que deberíamos pensar en cómo definir las responsabilidades políticas con los sistemas de IA. En mi opinión, gran parte de la regulación debería ser específica para cada ámbito. En el ámbito sanitario ya contamos con protocolos bastante buenos para la introducción de fármacos o el uso de software en diagnósticos sanitarios. La IA parece requerir algunos ajustes modestos en el marco regulatorio para adaptarlo a los sistemas. En otras áreas, como los vehículos totalmente autónomos, no existe un marco regulatorio, pero ya existen regulaciones para vehículos motorizados, por lo que probablemente sea apropiado evolucionar para adaptarlos. De hecho, en EE.UU. se observa que diferentes ciudades o jurisdicciones adoptan enfoques ligeramente diferentes que funcionan bien, ya que ahora se están implementando en una etapa temprana estos sistemas y los legisladores pueden comprender su rendimiento antes de tomar decisiones sobre la fuerza restante. Por lo tanto, creo que la mayoría de los ámbitos deberían analizarse desde la perspectiva de cuál es el comportamiento correcto con sus políticas.
Hay quienes adelantan que es casi imposible imaginar cómo será todo en 10 años más en nuestra vida cotidiana, dado el ritmo de avance y penetración de la IA en todo ámbito. ¿Qué piensa usted?
Junto con otros coautores escribimos un artículo titulado “Dando forma al impacto de la IA en miles de millones de personas”. Y existen varias opiniones al respecto. Pero creo que una medida para mirar hacia adelante 10 años es mirar hacia atrás una década y ver qué ha cambiado ahora. Las capacidades de estos sistemas han mejorado enormemente. Hace 10 años, la visión artificial empezaba a funcionar; los modelos lingüísticos estaban en sus primeras etapas, al menos en términos de modelos lingüísticos neuronales a gran escala. Y ahora tenemos estos modelos multimodales altamente capaces que pueden introducir el pensamiento en sus respuestas y son mucho más precisos y eficaces.
¿Entonces no se ve una disrupción producida por un avance exponencial en función del pasado frente al futuro?
Mi opinión es que los modelos mejorarán mucho, por lo que las capacidades en 10 años serán mucho mejores. Pero creo que la gente subestima el tiempo que tarda un gran cambio tecnológico en abrirse paso en todos los ámbitos de la sociedad. Algunos aspectos se adoptarán con relativa rapidez, pero otros serán más lentos. Y sí creo que habrá enormes beneficios de productividad, en muchos sectores. Pero no creo que de repente se vean modelos increíbles que arrasen con el mundo en pocos años.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.