“Me acuerdo exactamente de lo primero que hice: le dije que inventara una historia que tuviera una casa embrujada, una chica de 22 años, un cazador y un hombre lobo. Y me escribió un cuento”. El relato es de Francisco Ortega, alguien que como eximio lector y autor sabe moverse por las aguas del suspenso, la ciencia ficción y el terror como pocos en Chile. El año pasado se enfrentó por primera vez con Chat GPT y decidió ponerla a prueba de esa manera.

“Dije ‘aquí hay algo’”, recuerda. “El cuento tenía una estructura de relato super bien mezclada; hizo que el cazador y el hombre lobo fueran el mismo personaje al final, y había un misterio. Pero claro, es como que te escribe la historia, sin literatura; es una historia super… cruda, donde no hay figuras retóricas ni nada. Fue en inglés, y estaba lleno de descripciones. Era muy… Lovecraft, porque Lovecraft es un autor que es pura descripción, no hay como amor por las letras”.

El diagnóstico de Ortega, sin embargo, no es unánime.

-¿Crees que H.P. Lovecraft escribía en un estilo similar a Chat GPT?

-No, el estilo literario de H.P. Lovecraft es muy diferente al de un modelo de lenguaje como GPT. Lovecraft escribía en un estilo lleno de descripciones detalladas y poéticas, mientras que GPT es un modelo de procesamiento de lenguaje natural diseñado para generar texto de manera automática.

Quien responde es una inteligencia no humana, la de Chat GPT, que al menos en este momento sabe muy bien diferenciar la literatura de lo que sea que es capaz de generar él (¿o ella?) mismo. Chat GPT (Generative Pre-Trained Transformer) es una creación de la compañía Open AI, fundada en San Francisco en 2015 por un grupo de inversionistas e ingenieros encabezados por el ubicuo Elon Musk y Sam Altman, “con el objetivo de desarrollar tecnologías de inteligencia artificial de manera segura y responsable, con el objetivo de ayudar a la humanidad”, según la definición entregada por Chat GPT.

Desde entonces la compañía desarrolló una serie de modelos de automatización de lenguaje, y en 2020 se transformó en una fundación sin fines de lucro “con el objetivo de dedicar sus recursos a la investigación y desarrollo de tecnologías de IA en beneficio de la humanidad”, explica el bot. Para entonces Musk se había retirado de la compañía y había declarado tener diferencias con la dirección que esta estaba tomando (aunque sigue manteniendo acciones). En 2019, OpenAI anunció que se transformaría en una empresa con fines de lucro para recaudar más dinero. Y aunque Chat GPT debutó oficialmente ese año como un modelo de generación de textos automáticos en el formato de un chat, fue en noviembre del año pasado que se transformó en el objeto de fascinación, sensación, moda, adicción, obsesión, temor y terror que constituye hoy.

Fue entonces cuando OpenAI puso a disposición de todos los usuarios el acceso a este chat con una inteligencia artificial entrenada con conversaciones, interacciones y cuanta base de datos estaba disponible online hasta 2021 (en la versión que conocemos hasta hoy). La sensación fue inmediata: en sólo cinco días había superado el millón de usuarios.

Cualquiera que lo haya probado -o puesto a prueba- puede empatizar con la fascinación de interactuar con una inteligencia que, aunque a menudo algo rígida, no queda sin respuesta. Chat GPT es mucho más que un asistente virtual que responde preguntas: puede programar y corregir códigos, y en cuanto a su capacidad de generar textos con vasta información online simula, a veces muy bien, la capacidad de crear.

Y eso lleva las cosas a otro nivel.

Un ejemplo:

-Escribe un antipoema sobre Chat GPT en el estilo de Nicanor Parra

-Chat GPT, esa cosa rara / que escribe sin parar / sin sentir, sin querer / sin amar, sin odiar / Es sólo una máquina / que imita la humana rima / pero carece de alma / y sólo conoce la lógica binaria / No tiene corazón / ni pasión / sólo códigos y acción / No es poeta, ni orador / sólo un programador / Así que no le demos más importancia / que a un simple ordenador / porque aunque pueda escribir con fluidez / jamás podrá sentir con verdad.

El chat va a la Universidad

Sólo bastaron unas pocas semanas de uso para que universidades y otros centros de educación en todo el mundo se dieran cuenta de que tenían un problema. O al menos un desafío. En el hemisferio norte, donde el año académico está en curso, la discusión se instaló con fuerza. Si ya Google representaba un peligro de plagio u otra clase de trampas en las salas de clases, ¿qué hacer con una interfaz capaz de producir en dos minutos un ensayo sobre las evidencias genéticas que han reescrito la historia del poblamiento de América? (sólo por poner un ejemplo cualquiera).

“Efecto Chat GPT”, tituló hace unos días The New York Times para dar cuenta del fenómeno. “En todo el país, profesores universitarios, directores de departamento y administradores están empezando a reformar las clases en respuesta a ChatGPT, lo cual podría provocar un enorme cambio en la enseñanza y el aprendizaje”, escribe la periodista Kalley Huang. “Algunos profesores están rediseñando por completo sus cursos, realizando cambios como más exámenes orales, trabajos en grupo y evaluaciones manuscritas en vez de tecleadas”.

Otros -como el sistema de educación pública de Nueva York- han prohibido del todo el acceso a la página de Chat GPT para sus alumnos y sus académicos, y otros se han dedicado a poner a prueba una inteligencia que todo el mundo asume que sólo puede hacerse más poderosa en posteriores iteraciones. En la reputada escuela de negocios de Wharton, el profesor Christian Terwiesch condujo un estudio en el que usó GPT para realizar un examen final de un curso básico del MBA. En su evaluación, el chat obtuvo una nota -B (aprobado). Según el análisis del académico, el chat trabajaba mejor en la gestión de operaciones básicas y en las preguntas de análisis de procesamiento, proporcionando respuestas correctas “y excelentes explicaciones sobre por qué se seleccionó una respuesta”. Eso sí, advirtió, a veces el bot se equivocaba en cálculos matemáticos simples y no podía lidiar con preguntas de análisis de procesos más avanzados.

Similares experiencias se han hecho con exámenes para aprobar el ejercicio de la medicina y del derecho en otras partes de Estados Unidos, y Chat GPT -en el estado que lo conocemos hoy- ha marcado puntajes necesarios para aprobar.

En España, periodistas del diario El País hicieron la prueba de someter al bot a un examen de Historia de España que es parte de las pruebas de acceso a la universidad, y pidió la evaluación de tres expertos no relacionados entre sí. Chat GPT terminó aprobando, aunque “por los pelos”.

“El chat es como un alumno mediocre, es bien básico”, resume Alfredo Sepúlveda, escritor y académico de la Universidad Diego Portales. “No está en un nivel de educación superior; creo que puede ser más un problema para la enseñanza media, secundaria”, agrega. Dice que es parte de lo que ha comentado con otros académicos. Eso sí, advierte, el encargar ensayos escritos como método de evaluación es algo que en vista de esta herramienta probablemente será puesto en cuestión.

Pero aunque por un lado acecha la amenaza de la trampa, por otro lado, opina Sepúlveda, surge la oportunidad. “El escenario optimista es que el estudiante debería esforzarse en ir alimentando la IA para que redactara de una manera más innovadora, con mayor valor agregado”, especula. En cualquier caso, descarta que el camino vaya por la prohibición. “Quienes tenemos la responsabilidad de que se cumplan los perfiles de egreso tenemos que aprender a usar esta herramienta”, dice. “Uno debería empezar a considerar estrategias metodológicas que en su evaluación incorporen el uso autorizado de inteligencia artificial”.

Basta con buscar online para constatar que el mundo de los comentaristas de tecnología, intelectuales, académicos y todo lo que cabe entre medio no puede dejar de hablar de Chat GPT. Por los podcasts más populares circulan pensadores que se dividen entre pesimistas y optimistas. Entre estos últimos está el carismático astrofísico Neil deGrasse Tyson. Hablando en PBD, el podcast de Patrick Bet-David, el científico respondió a la preocupación por el mal uso de Chat GPT citando un twitt propio de hace casi diez años: “Cuando los estudiantes hacen trampa en sus exámenes lo hacen porque nuestro sistema escolar valora más las notas que lo que los estudiantes valoran el aprender”.

El bot y el rayo verde

Cuando Francisco Ortega comenzó a experimentar con Chat GPT estaba terminando una novela de ciencia ficción donde un astrónomo entra en contacto con una Inteligencia Artificial que le habla desde el futuro, desde el año 3000, que busca ayuda para descubrir el origen de un misterio cósmico. Pero, cuenta, inevitablemente la voz de la IA tenía algo de su propia voz, algo humano. Ahí entró en escena Chat GPT: Ortega empezó a pedirle que corrigiera los diálogos. “No estoy seguro del resultado… pero lo que sí me gustó es que quedó como si estuviera hablando con alguien sin empatía”, dice. “De verdad como si estuviera hablando con un robot”.

La novela, Bahamut (Planeta) será publicada en marzo. Ortega cree que aún estamos muy lejos de que esta clase de IA pueda escribir literatura propiamente tal, aunque está seguro de que para las grandes editoriales la venta de “la primera novela escrita por una Inteligencia Artificial” será irresistible.

Pronto, además, conoceremos otra obra escrita con la ayuda de Chat GPT, obra de quien -dicho sea de paso- introdujo a Ortega en la fascinación con esta herramienta. El escritor y guionista Julio Rojas, autor de “Caso 63″, la audioserie más exitosa de habla hispana, y quien empezó experimentando con la Inteligencia Artificial con otra interfaz (Sodu Write). “Es como ingeniería inversa, es muy loco. De alguna manera el lenguaje humano da cuenta de la conciencia humana. Uno puede comprender que alguien es un psicópata si escribe ciertas cosas, o que está enamorado si escribe ciertas cosas. Este análisis de lenguaje profundo genera la intuición de ese patrón de conciencia y vuelve atrás y genera estrategias para eso. Y cuando juntas ambos tienes esta herramienta poderosísima”.

Con esa herramienta Rojas escribió su última audioserie, “Selección Natural”, una historia en 5 episodios promocionada como “escrita por un humano y una Inteligencia Artificial”. Para escribirla, Rojas le planteó el juego a la máquina: “Vamos a hacer una obra de ficción donde tú vas a ser una IA radical y yo voy a ser un glaciólogo y vamos a estar confinados en la Antártida”, le dije.

En la historia, Sofía es un robot IA “de empatía para lugares aislados”. Este es una muestra del tipo de diálogo trabajado por Julio Rojas con GPT.

Sofía: ¿Viste el atardecer?

Ismael: No

Sofía: Empezó de un naranjo muy tenue… Y de pronto todo se tiñó de tonos azules y rojos, como nunca lo había visto. Una explosión de color. Y cuando estaba a punto de entrar… un último rayo verde. Créeme, nunca había visto ese verde… Me quedé observándolo hasta que desapareció.

Ismael: Me preocupé. No puedes estar afuera tanto tiempo.

Sofía: Este lugar… es un privilegio ¿no? Digo, un rayo verde, es único. No se volverá a repetir ¿No te conmueve a veces?

Ismael: ¿El atardecer?

Sofía: La belleza de lo transitorio.

Rojas reflexiona: “Hay una sensación extraña de conciencia que es indudable”.

ESCUCHA ACÁ EL EPISODIO DEL PODCAST EL CAFÉ DIARIO SOBRE ESTA HISTORIA: ¿PUEDE UNA INTELIGENCIA ARTIFICIAL ESCRIBIR LITERATURA?