La carta del Futuro of Life Institute es un llamado que especialistas en el área y empresarios han realizado recientemente a detener la investigación en Inteligencia Artificial, y en particular a los denominados modelos gigantes de lenguaje generativos (LLM) tales como GPT, de la empresa OpenAI. A pesar de liberarse mundialmente una de sus aplicaciones exitosas, ChatGPT, se cuestiona variados aspectos relacionados a la transparencia, seguridad, e impredecibilidad de sus respuestas automáticas, lo que podría poner en riesgo muchos procesos de toma de decisión en variadas áreas productivas. Esto se torna más crítico cuando se evidencia que incluso los mismos creadores de estas tecnologías no la comprenden completamente, produciendo comportamientos “emergentes” que pueden escapar de control.

Quizás, detener o no detener no es tan relevante sino más bien entender algunos de los problemas aludidos en la carta, como también otros colaterales:

  • Varios laboratorios y universidades internacionales, por un afán meramente competitivo y de negocio, están generando grandes modelos de lenguaje (o LLM) sin control alguno, sin ni siquiera entenderlos completamente, ni cumplir con protocolos mínimos de seguridad ni transparencia. Peor aún, varios de los supuestos artículos técnicos (papers) que han generado algunos laboratorios en forma apresurada, ni siquiera han sido validados por la comunidad científica.
  • Los modelos desarrollados son más bien de “caja negra”. Es decir, no se entiende mucho la lógica interna de diseño, y sus respuestas/comportamientos (en el caso de ChatGPT) se generan de una forma bastante impredecible. A pesar de que ser modelos de lenguaje, la realidad es que no poseen mucho fundamento lingüístico, lo que también dificulta su accountability.
  • No ha habido avance importante en LLMs. Todo lo que se ha demostrado o publicado son LLMs que “aprenden” solamente agregando/ajustan más y más a “parámetros”, pero sin ningún control ni fundamentación, que es donde podrían surgir los posibles riesgos.
  • Un aspecto que varios investigadores ya habían advertido está relacionado a la naturaleza impredecible de estos modelos. Esta característica produce que los sistemas computacionales que los utilizan generen conductas emergentes, es decir resultados que no son el producto directo de una lógica interna sino de la interacción de muchas componentes que producen resultados que no se pueden explicar. Esto tiene relación directa con muchas de las predicciones “mágicas” que realizan estos modelos, y que como consecuencia generan mucha información falsa.
  • Independiente de que los modelos se utilicen en tareas de procesamiento de lenguaje (ej. diálogo en chatGPT), paradójicamente, estos no poseen fundamentación alguna en el lenguaje, sino que en cajas negras “predictoras” (aka. redes neuronales) que realizan cómputos y que no pueden comprender lo que reciben ni lo que generan (otra historia diferente es que los usuarios “crean” que la máquina está comprendiendo lo que hace, lo que es falso). Esta falta de cimientos origina problemas de transparencia, seguridad, falta de capacidades de “razonamiento”, entre otros. Interesantemente, todo ello no sólo está en las advertencias de la carta del Future of Life Institute, sino que también es parte de varias regulaciones y principios para la IA responsable, emitidos tanto por la Comunidad Europea, como la OCDE, entre otros organismos.

Esto no es un problema generalizado con las tecnologías de IA, sino con algunos enfoques específicos que necesitan abordar algunos problemas abiertos. El desarrollo de la IA sigue su avance y existen varias alternativas tecnológicas a las planteadas en la carta que nos seguirán ayudando.

* Dr. John Atkinson, Director del Magíster en Inteligencia Artificial UAI