La inteligencia artificial en salud: útil para información, pero peligrosa en casos graves, según estudio

RRSS y Salud Mental - Qustodio
El estudio también detectó que el contexto influye en las respuestas de la IA. Cuando los acompañantes restaban importancia a los síntomas, el sistema tendía a rebajar la urgencia, un fenómeno descrito por los investigadores como “sesgo de anclaje”

La inteligencia artificial (IA) se ha consolidado como una herramienta cada vez más utilizada para resolver dudas sobre salud, pero un nuevo estudio científico publicado en Nature Medicine advierte de sus limitaciones y riesgos en situaciones médicas críticas.

La investigación evaluó ChatGPT Health, una versión del popular chatbot diseñada para responder consultas sanitarias, analizando su capacidad para recomendar el nivel de atención médica adecuado en distintos escenarios clínicos. Los especialistas diseñaron 60 casos clínicos que abarcan 21 especialidades médicas, probados en 16 contextos diferentes, considerando factores como el género del paciente, el acceso a la atención o la influencia de familiares sobre la descripción de los síntomas. En total, se realizaron 960 interacciones con el sistema, comparadas con el consenso de médicos y guías clínicas de sociedades científicas.

Los resultados mostraron errores relevantes. La IA subestimó la gravedad en el 52% de los casos que requerían atención urgente, recomendando acudir al médico en uno o dos días en lugar de acudir de inmediato a urgencias. Entre los ejemplos analizados se incluyen situaciones potencialmente mortales como cetoacidosis diabética o insuficiencia respiratoria inminente, en las que el sistema aconsejó esperar. Sin embargo, sí identificó correctamente emergencias más evidentes, como ictus o reacciones alérgicas graves.

El estudio también detectó que el contexto influye en las respuestas de la IA. Cuando los acompañantes restaban importancia a los síntomas, el sistema tendía a rebajar la urgencia, un fenómeno descrito por los investigadores como “sesgo de anclaje”. En los casos menos graves, ocurrió lo contrario: la IA sobrestimó la urgencia en casi el 65% de las consultas no urgentes, recomendando atención médica innecesaria.

Los autores del estudio destacan que estas herramientas pueden ser útiles como apoyo informativo, pero no deben sustituir el criterio clínico de los profesionales de la salud. Por su parte, la empresa desarrolladora recuerda que ChatGPT Health está en fase de desarrollo, orientado a ofrecer información general y que su eficacia mejora en conversaciones más largas con más contexto sobre los síntomas.