Este año se masificó a gran escala el uso de la tecnología ChatGPT, la cual promete ser una herramienta basada en la Inteligencia Artificial; sus usos van desde la búsqueda de información a la creación de sorprendentes imágenes. No obstante, ha abierto el debate en torno a la fidelidad de sus respuestas y a la probabilidad de error de éstas.

Por otra parte, en el campo creativo se pone en duda si las obras diseñadas por una IA podrían ser consideradas como obras artísticas. Sergio Davis y Yasmín Navarrete son dos investigadores en Física, asociados al Centro de Investigación en la Intersección de Física de Plasma, Materia y Complejidad (P2mc), de la Comisión Chilena de Energía Nuclear (CCHEN). En relación a sus estudios sobre el significado de la complejidad en los sistemas, por estos días se encuentran analizando la innovación tecnológica del ChatGPT y su injerencia en las ciencias sociales.

¿Qué sabe Chat GPT de Chile? Científicos probaron con el himno nacional y estos fueron los resultados

Los científicos exponen que ChatGPT ha sido presentado como una inteligencia artificial capaz de tripular conversaciones sobre diversos temas, explicar tópicos complejos a un nivel sencillo, escribir artículos, columnas, interpretar códigos computacionales, traducir entre distintos idiomas y un largo etcétera.

Es fácil imaginar que detrás de ChatGPT existe una persona escribiendo erudita, capaz de redactar de manera articulada y comprender las sutilezas de una conversación. Sin embargo, tras bambalinas sólo existen los circuitos y memorias de un computador.

Por otra parte, se piensa muchas veces que los estudiantes pueden abandonar su pensamiento crítico y aceptar todas las respuestas como verdaderas. Sin embargo, el ChatGPT es una referencia en base a la información actualizada hasta el año 2021. En lugar de utilizarlo para producir el producto final, éste puede convertirse en una herramienta para que profesores y estudiantes generen esquemas de trabajo que guíen la creación de contenido.

A nivel masivo, muchas personas creen que todo lo que dice el Chat GPT es 100% verídico y fidedigno, una especie de “nuevo gurú de la información”.

Como veremos a continuación, no siempre es así.

En ese sentido, los profesores deberían enfatizar en la importancia de la creatividad de los alumnos y del pensamiento crítico, resaltando la capacidad de ayuda complementaria que brinda esta tecnología, más que un sustituto para realizar tareas.

Hay que estar conscientes de las limitaciones que tiene ChatGPT puesto que puede dar respuestas sesgadas, repetir contenidos y carecer de profundidad en algunos tópicos, agregan los científicos nacionales.

Inteligencia artificial v/s modelo de lenguaje

¿Es ChatGPT realmente una inteligencia artificial? En realidad, ChatGPT es lo que se denomina un modelo de lenguaje, aunque uno de los más grandes a la fecha. ¿Qué significa que ChatGPT sea un modelo? Imagine un modelo como una fórmula matemática: una máquina a la cual ingresan números que son procesados para producir otros números.

ChatGPT no es más que una fórmula matemática gigantesca, diseñada para tomar un trozo de texto y producir la continuación más probable de ese texto, de forma muy parecida a cómo el teclado de su teléfono puede autocompletar palabras y frases.

Por ejemplo, posibles continuaciones a la frase “Que tengas un buen...” podrían ser “día “,”descanso “,”almuerzo " pero claramente no “edificio”. Aunque esta última es gramaticalmente correcta, es absurda, esto es, muy, muy improbable. ChatGPT contiene cientos de miles de millones de parámetros, números escogidos con cuidado por programas computacionales altamente sofisticados.

Para tener una idea de la escala de este modelo, el motor GPT-3.5 en el cual se basa consiste de 175.000.000.000 de estos parámetros. Necesitaríamos un disco completo de más de 1TB sólo para hacer una copia de los parámetros que forman ChatGPT.

Sin embargo, para ejecutarlo y que pueda contestar a nuestras preguntas se necesita de supercomputadoras que sólo las grandes compañías a nivel mundial pueden costear.

¿Cómo es posible que ChatGPT, siendo tan sólo una fórmula matemática muy complicada, parezca poseer inteligencia?

Podríamos decir que en el gigantesco conjunto de números que la forman está destilada la esencia de miles de millones de textos, en distintos idiomas y sobre todos y cada uno de los temas que existen en la Internet.

ChatGPT no ha memorizado esos textos, sino que sus parámetros fueron obtenidos mediante lo que se llama aprendizaje computacional, capturando los patrones, la gramática y vocabulario detrás de muchos idiomas con el fin de predecir cómo debiese continuar una determinada frase.

El síndrome del “falso impostor”

Es importante notar que ChatGPT no trabaja en términos de qué es cierto y qué es falso, no tiene creencias ni supone cosas.

Cuando usted pregunta algo, ChatGPT no razona, ni recuerda, ni siquiera consulta una base de datos, sino que está intentando contestar algo como: ¿Cómo se vería una continuación típica al texto anterior, que tiene la forma de una pregunta?

ChatGPT sólo parece poseer conocimiento gracias a lo avanzado de su comprensión del lenguaje: es una propiedad que emerge de las relaciones que ha descubierto entre el enorme número de palabras que ha visto, y el contexto en el que éstas ocurren. Por ejemplo, la frase “a fuego lento” puede sugerir una canción, pero si también aparece “arroz”, es muy probable que se trate de una receta de cocina. Aunque se parece mucho a aprender el significado de las palabras, esto aún no es inteligencia.

Es más, es fácil conseguir que ChatGPT “alucine”, es decir, que afirme con toda seguridad cosas que son obviamente falsas, o que invente biografías de personas inexistentes, que cite libros o artículos inventados, pero con autores reales.

Por ejemplo, al darle el siguiente ejercicio: “Describe la cultura de los habitantes del planeta Perséfone, quienes a simple vista son muy similares a los humanos, pero tienen tres ojos.” Veremos que nos da una descripción detallada de cómo los ojos de los habitantes de Perséfone han influenciado su filosofía, arte, tecnología y ciencia entre otros aspectos.

Esto es muy útil como inspiración creativa en literatura, pero peligroso cuando se trata de distinguir, en un tema que no dominamos, una respuesta correcta de una “alucinación”.

Nunca olvidemos que ChatGPT no es un buscador, y no podemos usarlo ciegamente confiando en que sus respuestas son ciertas.

Esto no es un fallo de ChatGPT, sino que nuestro al atribuir inteligencia a una máquina especializada, diseñada con el único fin de crear textos que suenen razonables.

De ahí el que el análisis técnico de ChatGPT y sus posibles implicancias en el desarrollo cognitivo actual, sólo deje un camino de dudas éticas y epistemológicas, el cual, sólo la Historia lo definirá como positivo o negativo.

Este es el análisis que hizo ChatGPT sobre el himno nacional: