Doctor
Doctores le pidieron a ChatGPT que planeara tratamientos para el cáncer: así respondió la Inteligencia Artificial. Foto: referencial.

Doctores le pidieron a ChatGPT que planeara tratamientos para el cáncer: así respondió la Inteligencia Artificial

Médicos de un hospital de la Universidad de Harvard hicieron el experimento para un estudio. Esto fue lo que presentó el chatbot de OpenAI.


Desde que fue estrenada en noviembre de 2022, ChatGPT se convirtió en una de las plataformas de inteligencia artificial (IA) más populares del mundo. A solo dos meses del lanzamiento, ya contaba con 100 millones de usuarios activos.

Esta aplicación tiene la capacidad de generar textos a partir de ciertas directrices que le entregan los usuarios, aunque como han advertido distintos especialistas e incluso el mismo director ejecutivo de Open AI, Sam Altman, esta tecnología puede cometer errores y no toda la información que entrega es verídica.

Frente a esta escenario y los proyectos que se están desarrollando para implementar la IA en múltiples ámbitos, un grupo del Brigham and Women’s Hospital —dependiente de la Facultad de Medicina de Harvard en Boston— le pidió a ChatGPT que generara planes de tratamiento para distintos tipos de cáncer.

Doctora
Doctores le pidieron a ChatGPT que planeara tratamientos para el cáncer: así respondió la Inteligencia Artificial. Foto: referencial.

Qué respondió ChatGPT y cómo fue su efectividad

En un estudio publicado este mes en JAMA Oncology, los autores precisaron que un tercio de sus respuestas contenían información incorrecta.

Asimismo, el chatbot tendió a mezclar datos verídicos con otros erróneos, de una forma en la que resultaba difícil identificar cuál efectivamente era cierta.

No obstante, de un total de 104 consultas, cerca del 98% de las respuestas incluían al menos una recomendación de tratamiento acorde a lo planteado por la National Comprehensive Cancer Network.

La doctora y coautora del trabajo, Danielle Bitterman, recalcó a Business Insider que “sorprendió el grado en que la información incorrecta se mezclaba con la correcta, lo que dificultaba la detección de errores, incluso para los expertos”.

“Los grandes modelos lingüísticos están entrenados para ofrecer respuestas que suenan muy convincentes, pero no están diseñados para proporcionar consejos médicos precisos”, añadió la especialista.

Junto con ello, enfatizó que analizar tales puntos es de suma relevancia si se piensa en implementar la IA para tareas que requieran de precisión. Más cuando es un área como el de la medicina.

“La tasa de error y la inestabilidad de las respuestas son cuestiones de seguridad críticas que habrá que abordar para el ámbito clínico”, sentenció Bitterman.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.