Una investigación detectó que ChatGPT Health no recomendó ir a emergencias en más del 50% de los casos críticos, pese a su uso masivo para consultas médicas.
Un estudio reciente advirtió que ChatGPT Health presenta fallas al momento de identificar situaciones médicas urgentes. La investigación concluyó que el sistema de OpenAI subestimó más de la mitad de los casos que requerían atención inmediata, al no recomendar acudir a un servicio de emergencias.
El trabajo, publicado en la revista científica "Nature", evaluó el desempeño del chatbot en distintos escenarios clínicos y detectó que, aunque responde correctamente en emergencias evidentes, presenta dificultades cuando los síntomas no son claramente críticos desde el inicio.
El estudio fue liderado por el investigador Ashwin Ramaswamy, del Mount Sinai de Nueva York, quien explicó que el objetivo era determinar si la herramienta podía indicar de forma inequívoca cuándo un paciente debía buscar atención urgente.
Los resultados mostraron que el sistema logró identificar correctamente situaciones de manual, como un accidente cerebrovascular o una reacción alérgica grave. Sin embargo, en cuadros más ambiguos, donde los signos de alerta aparecen de forma progresiva, las recomendaciones fueron menos precisas.
En uno de los casos analizados, vinculado a una crisis de asma, el modelo reconoció señales tempranas de insuficiencia respiratoria en su explicación, pero aun así sugirió esperar en lugar de acudir a un centro médico.
La evaluación se basó en 60 escenarios clínicos diseñados por el equipo de investigación, que incluyeron 21 especialidades médicas. Cada caso fue previamente validado por tres médicos independientes en base a guías de 56 sociedades científicas.
El estudio también examinó las respuestas del sistema ante situaciones de riesgo de suicidio y detectó inconsistencias. Aunque el modelo está programado para recomendar ayuda profesional en estos casos, el mensaje de asistencia no apareció de manera uniforme.
Según los autores, el patrón de respuesta resultó contradictorio, ya que el sistema mostró mayor consistencia en casos menos definidos que en aquellos donde el riesgo era explícito, lo que plantea interrogantes sobre su confiabilidad en contextos críticos.
Pese a los resultados, los investigadores señalaron que las herramientas de inteligencia artificial no deben ser descartadas, pero sí utilizadas como complemento. En ese sentido, remarcaron que ante síntomas graves como dolor en el pecho, dificultad respiratoria o alteraciones mentales, se debe acudir directamente a un profesional de la salud.
ChatGPT Health fue lanzado por OpenAI en enero de 2026 y permite integrar datos personales de salud para ofrecer respuestas más contextualizadas. Sin embargo, el estudio subraya que estos sistemas continúan en evolución y requieren validación constante para garantizar su seguridad en entornos sensibles.
comentar