Durante años, muchos han temido que la inteligencia artificial (IA) se haga cargo de los mecanismos de seguridad nacional, lo que conducirá a la esclavitud humana, la dominación de la sociedad humana y quizás la aniquilación de los humanos. Una forma de matar humanos es el diagnóstico médico erróneo, por lo que parece razonable examinar el rendimiento de ChatGPT, el chatbot de IA que está arrasando en el mundo. Esto es oportuno a la luz del notable desempeño reciente de ChatGPT al aprobar el examen de licencia médica de EE.UU.

El diagnóstico asistido por computadora se ha intentado muchas veces a lo largo de los años, particularmente para diagnosticar apendicitis. Pero el surgimiento de la IA que se basa en todo Internet para obtener respuestas a las preguntas en lugar de limitarse a bases de datos fijas, abre nuevas vías de potencial para aumentar el diagnóstico médico.

Más recientemente, varios artículos analizan el rendimiento de ChatGPT para realizar diagnósticos médicos. Un médico estadounidense de urgencias contó recientemente cómo le pidió a ChatGPT que le diera los posibles diagnósticos de una mujer joven con dolor abdominal bajo. La máquina dio numerosos diagnósticos creíbles, como apendicitis y problemas de quistes ováricos, pero pasó por alto el embarazo ectópico.

Esto fue correctamente identificado por el médico como una omisión grave, y estoy de acuerdo. Bajo mi supervisión, ChatGPT no habría pasado sus exámenes médicos finales con esa actuación bastante mortal.

ChatGPT aprende a diagnosticar enfermedades

Me complace decir que cuando le hice la misma pregunta a ChatGPT sobre una mujer joven con dolor en la parte inferior del abdomen, ChatGPT declaró con confianza el embarazo ectópico en el diagnóstico diferencial. Esto nos recuerda algo importante sobre la IA: es capaz de aprender.

Presumiblemente, alguien le ha dicho a ChatGPT sobre su error y ha aprendido de estos nuevos datos, como un estudiante de medicina. Es esta capacidad de aprender lo que mejorará el rendimiento de las IA y hará que se destaquen de los algoritmos de diagnóstico asistidos por computadora bastante más restringidos.

FILE PHOTO: ChatGPT logo is seen in this illustration taken, February 3, 2023. REUTERS/Dado Ruvic/Illustration/File Photo

ChatGPT prefiere el lenguaje técnico cuando se hace pasar por médico

Envalentonado por el desempeño de ChatGPT con el embarazo ectópico, decidí probarlo con una presentación bastante común: un niño con dolor de garganta y una erupción roja en la cara.

Rápidamente, obtuve varias sugerencias muy sensatas sobre cuál podría ser el diagnóstico. Aunque mencionó el dolor de garganta estreptocócico, no mencionó la infección de garganta estreptocócica particular que tenía en mente, a saber, la escarlatina.

Esta condición ha resurgido en los últimos años y comúnmente se pasa por alto porque los médicos de mi edad y más jóvenes no tenían la experiencia para detectarla. La disponibilidad de buenos antibióticos casi lo había eliminado y se volvió poco común.

Intrigado por esta omisión, agregué otro elemento a mi lista de síntomas: preservación perioral. Esta es una característica clásica de la escarlatina en la que la piel alrededor de la boca está pálida pero el resto de la cara está roja.

Cuando agregué esto a la lista de síntomas, el principal éxito fue la escarlatina. Esto me lleva al siguiente punto sobre ChatGPT. Prefiere el lenguaje técnico.

Esto puede explicar por qué pasó su examen médico. Los exámenes médicos están llenos de términos técnicos que se usan porque son específicos. Confieren precisión al lenguaje de la medicina y como tales tenderán a afinar las búsquedas de temas.

Todo esto está muy bien, pero ¿cuántas madres preocupadas de niños con la cara roja y dolor de garganta tendrán la fluidez en la expresión médica para usar un término técnico como preservación perioral?

Al ChatGPT le da vergüenza

Es probable que los jóvenes usen ChatGPT, por lo que pensé en los problemas de salud que podrían ser de particular importancia para la generación más joven, como la salud sexual. Le pedí a ChatGPT que me diagnosticara dolor al orinar y secreción de los genitales masculinos después de una relación sexual sin protección. Me intrigó ver que no recibí respuesta.

Era como si ChatGPT se sonrojara de alguna manera tímida y computarizada. Al eliminar las menciones de relaciones sexuales, ChatGPT dio un diagnóstico diferencial que incluía gonorrea, que era la afección que tenía en mente. Sin embargo, así como en el mundo real la falta de apertura sobre la salud sexual tiene resultados dañinos, también lo es en el mundo de la IA.

¿Ya está listo nuestro médico virtual para vernos? No exactamente. Necesitamos ponerle más conocimiento, aprender a comunicarnos con él y, por último, conseguir que supere su mojigatería a la hora de hablar de problemas que no queremos que nuestras familias conozcan.

*Stephen Hughes, profesor titular de Medicina, Universidad Anglia Ruskin