El pequeño Alex experimentó dolores intensos durante 3 años hasta que su madre, desesperada, le pidió ayuda a la aplicación de inteligencia artificial.
Luego de pasar por 17 médicos diferentes durante 3 años, en busca del origen de una dolencia que le causaba fuertes dolores crónicos, la madre de niño de Estados Unidos decidió preguntarle a ChatGPT.
La aplicación de inteligencia artificial diagnosticó que el pequeño padecía, posiblemente, el "síndrome de la médula anclada", una rara afección por la cual la médula ósea se mantiene adherida a los tejidos circundantes de la columna, impidiendo que esta se estire adecuadamente a medida que crecen.
"Repasé línea por línea todo lo que había en sus notas [de la resonancia magnética] y lo introduje en ChatGPT", explicó Courtney, la madre de Alex, quien además contó que durante la pandemia de Covid-19 el niño, que en ese momento tenía cuatro años, de repente empezó a sentir mucho dolor y masticar todo tipo de cosas, y que posteriormente dejó de crecer.
La madre tomó el diagnóstico del ChatGPT y pidió una cita médica con una neurocirujana, quien, al observar las resonancias del paciente, no tardó en mostrarse de acuerdo con el diagnostico.
Un grupo de investigadores estadounidenses elaboró un estudio en el que concluyeron que la inteligencia artificial, a través del ChatGPT, alcanza una precisión del 72% en la toma de decisiones clínicas generales, según lo publicado por la revista especializada Journal of Medical Internet Research.
En el informe, se detalló que el popular chatbot, una herramienta basada en la inteligencia artificial, "ha obtenido buenos resultados tanto en atención primaria como en urgencias y en las diferentes especialidades".
Marc Succi, uno de los autores del proyecto de investigación, sostuvo que el estudio "evalúa de forma exhaustiva el apoyo a la toma de decisiones a través de ChatGPT desde el inicio del trabajo con un paciente y a lo largo de todo el escenario asistencial, desde el diagnóstico diferencial hasta las pruebas, el diagnóstico y el tratamiento".
La precisión se midió mediante un sistema de puntuación a las respuestas correctas. De esta manera, los científicos probaron "la evidencia de esta tecnología y su desempeño en el entorno clínico, encontrando que ofrece una precisión del del 60,3% en la determinación de diagnósticos diferenciales basados únicamente en HPI (antecedentes de enfermedad actual), PE (examen físico) y ROS (revisión de sistemas) y por otro lado, una precisión del 76,9% en diagnósticos finales con el manejo de información adicional, como pueden ser las pruebas de diagnóstico relevantes".
En consecuencia, señalaron que el ChatGPT ha logrado un rendimiento del 71,8% en todos los tipos de preguntas, por lo que esta herramienta se posiciona como un potencial aliado de los profesionales de la salud.
"El objetivo era probar si ChatGPT sería capaz de trabajar a lo largo de todo un encuentro clínico con un paciente y recomendar una prueba diagnóstica, decidir el curso de tratamiento clínico y, en última instancia, realizar el diagnóstico final", puntualizaron.
Según los investigadores, "no existen puntos de referencia reales, pero estimamos que el desempeño de ChatGPT está al nivel de alguien que acaba de graduarse en la facultad de Medicina, como un interno o un residente".
A pesar de que el ChatGPT ayudó en el caso de Alex, los especialistas advierten que el bot también puede cometer errores.
"Cuando le haces una pregunta a ChatGPT, recuerda de memoria cosas que ha leído antes e intenta predecir el fragmento del texto", comenta Andrew Beam, profesor adjunto de Epidemiología en Harvard. "Hará todo lo posible para darte un texto que se parezca a un pasaje que ha leído", añade.