Un reciente estudio publicado en la revista JAMA Network Open ha abierto un debate sobre cuál será el futuro de la medicina y la salud con la llegada de la inteligencia artificial (IA), y genera incertidumbre sobre su rol futuro en la atención sanitaria. El estudio puso sobre la mesa evidencias sobre su alcance, luego de comparar el rendimiento de ChatGPT-4, un modelo de lenguaje avanzado, con el de 50 médicos en un escenario controlado de diagnósticos clínicos.
Los resultados sorprendieron incluso a los investigadores, el chatbot superó en precisión a los médicos y demostró ser más eficiente en la identificación de enfermedades complejas. La investigación, encabezada por el doctor Adam Rodman, especialista en medicina interna en el Beth Israel Deaconess Medical Center, evaluó la capacidad de diagnóstico a través de seis casos clínicos basados en pacientes reales. Mientras que los médicos lograron una precisión media del 74% (sin herramientas) y 76% (con el apoyo de IA), el ChatGPT alcanzó una media del 90% trabajando en solitario.
El experimento involucró a 50 médicos, incluyendo residentes y especialistas con experiencia en medicina interna, familiar y de emergencias, quienes participaron de forma virtual y presencial. Se les presentaron seis casos clínicos, cada uno basado en pacientes reales, pero cuidadosamente seleccionados para no estar presentes en los datos de entrenamiento de ChatGPT. Este cuidado garantizó que la IA no tuviera ventajas relacionadas con su base de datos previa.
Los participantes debían identificar hasta tres diagnósticos posibles para cada caso, respaldar sus hipótesis con evidencia y detallar pasos adicionales necesarios para confirmar sus conclusiones. Mientras algunos médicos utilizaron herramientas convencionales como bases de datos médicas y buscadores en línea, otros contaron también con el apoyo de ChatGPT-4 para guiar sus decisiones.
El hallazgo más destacado fue la superioridad del chatbot en solitario, que no solo demostró una mayor precisión en sus diagnósticos, sino que también fue más eficiente en términos de tiempo. Según el estudio, los médicos asistidos por el chatbot dedicaron, en promedio, 519 segundos por caso, mientras que aquellos sin IA tardaron 565 segundos. Sin embargo, el modelo por sí solo, no solo fue más rápido, sino también más certero, alcanzando el 92% en algunos casos específicos.
Este descubrimiento no sólo plantea interrogantes sobre el potencial de la IA en el ámbito médico, sino también sobre la reticencia de los profesionales a confiar en estas tecnologías emergentes. Si este escenario se llega a masificar en los centros médicos, la interrogante sería: ¿Donde termina la mano del hombre y donde comienza lo digital?.