Es uno de los sistemas más conocidos cuando se habla de Inteligencia Artificial (IA). ChatGPT tiene la capacidad de generar textos a partir de simples directrices que les entregan los usuarios, una función que ya está siendo utilizada por muchos para adquirir ideas, redactar cartas o incluso elaborar planes de viaje.
Si bien, numerosos especialistas han informado que esta plataforma puede cometer errores —por lo que no se debe confiar ciegamente en que todo lo que arroja es verídico— , también hay ciertas pruebas que ha logrado pasar exitosamente.
Este es el caso de la última PAES, la cual fue respondida por el programa creado por la empresa OpenAI.
El sitio EvoAcademy realizó el experimento y aseguró que la versión 3.5 de ChatGPT (gratuita) acertó más del 75% de las preguntas en cada prueba, mientras que la más reciente, GPT-4 (pagada), respondió bien más del 93% y solo se equivocó en una alternativa.
Según estimaron desde la citada fuente, tales resultados posicionan las calificaciones de GPT-4 en el 1% de los puntajes más altos en la evaluación de Comprensión Lectora.
Los resultados de ChatGPT en la prueba PAES
La metodología del experimento solo consideró la prueba mencionada en el párrafo anterior y la de Historia y Ciencias Sociales, debido a que las otras tenían varias imágenes que hacían más difícil el procesamiento en el programa.
Junto con ello, las evaluaciones utilizadas fueron las publicadas en la página del DEMRE, las cuales corresponden a la del proceso de Admisión 2023.
Una vez que las reunieron, las pasaron de formato PDF a un texto plano, para que así se facilitara el proceso en el software. De esta manera le entregaron las preguntas y las alternativas, para que posteriormente arrojara las respuestas con el número del tópico y la alternativa que considerara correcta.
La diferencia de aciertos entre la versión 3.5 y la 4 fue sustancial: en Comprensión Lectora, la primera sacó 761 puntos y la segunda 960, mientras que en Historia y Ciencias Sociales, la primera obtuvo 821 y la segunda 955.
Aún así, desde el sitio destacaron que “este ejercicio no debe ser considerado como un estudio acabado y riguroso”, ya que tiene un fin más bien experimental con el propósito de invitar a pensar en los posibles usos de esta tecnología en ámbitos como el de la educación.
Asimismo, previamente han habido múltiples casos en los que ChatGPT no ha podido responder satisfactoriamente otras evaluaciones
Cuando ChatGPT pasó “apenas” un examen de Economía
Por ejemplo, el ex presidente del Banco Central y actual decano de la Facultad de Economía y Negocios de la Universidad de Chile, José De Gregorio, sometió el software a una prueba de tres preguntas sobre economía a mediados de este mes.
Los resultados, publicados en LUN, sugirieron que pasa “apenas” el examen, según palabras del especialista.
Por su parte, el experto en IA, Daniel Atik, dijo al citado medio que “GPT es un sistema que permite aprender en base a la información que recibe y en base a ese aprendizaje permite interactuar”.
“Se puede asimilar a un sistema predictivo, como el que tienes en tu teléfono que sugiere la siguiente palabra. En base a un texto que tú le das, lo continúa según el aprendizaje que tuvo, por lo tanto, no podemos decir que GPT 3.5 sea inteligente (...) ahora, acaba de salir la versión 4.0 y hay estudios que indican que ha mejorado la parte de interpretación y de aplicación de la lógica para sacar conclusiones”.
Bajo esta línea, Atik sentenció que “esto es una lucecita que indica que está empezando a adquirir cierta inteligencia”.