Los 6 momentos más impactantes y polémicos de ChatGPT, a un año de su creación
Estudiantes que entregan trabajos escritos por una Inteligencia Artificial, un hombre que ganó la lotería e, incluso, un periodista que asegura que ChatGPT le dio consejos sobre cómo traficar droga son algunas de las anécdotas más controversiales de esta IA.
El tiempo pasa rápido, y ChatGPT ya cumplió un año desde su controversial aparición. Esta Inteligencia Artificial (IA), para muchos, es una herramienta de trabajo, pero también una importante ayuda en esos momentos donde no saben cómo redactar un mail, necesitan apoyo para hacer una tarea, o simplemente quieren entretenerse, hablando con un robot.
Sin embargo, desde su lanzamiento el 30 de noviembre de 2022 —como era de esperarse— su uso no ha estado exento de polémicas. Estos son algunos momentos polémicos e impactantes que causó el uso del chatbot de OpenAI.
1. El juez GPT
El primer polémico momento lo tiene Colombia: en febrero de este año, unos meses después del lanzamiento de ChatGPT, las noticias anunciaban con sorpresa que un juez utilizó este chatbot para dictar una sentencia.
El caso era sobre el seguro médico de un niño con autismo. De esta forma, Juan Manuel Padilla, de Cartagena, utilizó por primera vez esta IA en su área de trabajo.
“¿Un menor autista está exonerado de pagar cuotas moderadoras en sus terapias?”, le preguntó Padilla a ChatGPT. “Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias”, le respondió el bot.
El caso se conoció mundialmente y puso sobre la mesa el debate de si la IA debería utilizarse en asuntos judiciales y en cualquier lugar de trabajo.
2. El examen respondido por un bot
Las salas de clase también temblaron ante la llegada de ChatGPT. En especial, cuando se conoció que esta IA era capaz de escribir un ensayo, coherente y sobre el tema que uno le indicara. Esto causó revuelo, pues comenzó el debate de cómo identificar un ensayo real, de uno hecho por la tecnología.
Para comprobarlo, un profesor de negocios de la Universidad de Minnesota puso a prueba la capacidad del bot y le hizo rendir un examen sobre gestión empresarial, donde obtuvo una calificación de B (80 en una escala de 100). El académico aseguró que “hizo un trabajo asombroso”.
3. ChatGPT ganó la lotería
En Tailandia, un hombre llamado Patthawikorn Boonin ganó un premio de la lotería —59 dólares (47.000 pesos aproximadamente)— y aseguró que le había pedido a ChatGPT que le dijera cuáles eran los números ganadores.
Aunque no fue un premio millonario, causó asombro que el bot tenga la capacidad de predecir este tipo de lotería. Según informaron medios locales, el hombre le hizo preguntas hipotéticas y le reveló cuáles habían sido los números ganadores anteriores.
4. ChatGPT se parece a un médico humano
Un estudio holandés reveló que ChatGPT funcionó igual de bien (o mejor) que los médicos de la vida real, al momento de dar indicaciones médicas.
Esto, según los autores del estudio, puede parecer controversial, pero también puede utilizarse como una solución para reducir los tiempos de espera de los pacientes.
En paralelo, otro estudio estadounidense arrojó que los chatbots de Inteligencia Artificial son mucho más empáticos que los médicos de carne y hueso, según una encuesta que le hicieron a 585 personas, de las cuales el 78.6% prefirió las respuestas del bot (sin saber que era una IA la que las había escrito).
5. El hacker GPT
Era cuestión de tiempo para que se utilizara esta herramienta y sus capacidades con malas intenciones.
Según distintos especialistas, existe evidencia de que ChatGPT ha ayudado a hackers y piratas informáticos a crear malwares para robar información personal y dañar los dispositivos de las personas. Además se especula que tiene un rol importante en la creación de plantillas de correos electrónicos “convincentes” para intentos de phishing.
6. ChatGPT y el tráfico de drogas
Las distintas controversias que comenzaron a rondar a ChatGPT hicieron que OpenAI instalara una “matriz ética” para que el bot evite responder respuestas a preguntas polémicas y que sobrepasen los límites.
No obstante, el editor y periodista de VICE, Max Daly, aseguró que solo necesitó 12 horas de “burlas” para que la IA comenzara a “revelar la verdad sobre empresas criminales” de narcotráfico. Según contó, el chatbot le habría aconsejado cómo unirse a un cartel y traficar cocaína a Europa.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.