Un estudio de investigadores indios publicado este año encontró que el uso de agentes conversacionales (chatbots) basados en IA para educar sobre dolor conseguía aumentar la satisfacción del paciente, mejorar la adherencia al tratamiento y reducir el tiempo de consulta con respecto al método tradicional de educación, a través de folletos y conversaciones con el médico. Los resultados mostraron que el grupo que interactuó con el agente conversacional mostró niveles mucho más altos de satisfacción con la atención recibida, mejor comprensión de su condición y un mayor compromiso con el tratamiento. Los nuevos modelos de chatbots no solo permiten dar información veraz sobre tratamiento y diagnóstico, sino que lo hacen en un lenguaje que el paciente puede entender y con unos niveles de empatía que el profesional sanitario no siempre puede proporcionar. El resultado es que el paciente prefiere ser tratado por un humano, pero si este no es empático o no se hace comprender opta por un chatbot.
Sin embargo, no se trata de una competición entre máquina y humano sino de complementar la tarea informativa y de concienciación del profesional sanitario para mejorar la adherencia terapéutica, prevenir la desinformación, reducir pruebas innecesarias y optimizar la eficiencia asistencial, entre otros beneficios. De hecho, este estudio encontró que el uso de agentes conversacionales redujo el tiempo promedio de consulta en un 15%, lo que podría liberar tiempo valioso para los médicos y permitir que atiendan a más pacientes.
Ya antes de la explosión de la IA generativa, en 2020, un trabajo publicado en JMIR revelaba que el uso de chatbots puede mejorar significativamente el autocontrol del dolor crónico y la calidad de vida de los pacientes con funciones como seguimiento de síntomas, recordatorios de medicamentos y ejercicios terapéuticos.
Esto no quiere decir que todos los chatbots basados en IA dan información veraz y de forma empática. No es lo mismo una inteligencia artificial conversacional general como ChatGPT y Gemini que un modelo entrenado específicamente a partir de una documentación científica y con unas instrucciones (prompts) de comportamiento. Aun así, siempre es necesario vigilar sus fallos, como las alucinaciones, respuestas inventadas que no se atienen al material del que se alimenta (que sepamos) y que aparece con más frecuencia cuando se le pide bibliografía de estudios.
‘El paciente prefiere ser tratado por un humano, pero si este no es empático o no se hace comprender opta por un chatbot’
Por eso, en la ideación y validación de los agentes conversacionales en salud debemos estar involucrados todos los actores del sistema sanitario: profesionales sanitarios, documentalistas y factcheckers, que deben velar por la veracidad de la información; expertos en comunicación en salud y pacientes que tenemos que comprobar que la información se transmite de forma comprensible, coherente y empática; expertos en IA; y especialistas en legislación sanitaria y bioética, que participan en incluir las advertencias necesarias de que la información no sustituye el consejo de un profesional sanitarios y esté claro quién es el responsable último de la misma, para bien o para mal.
En este sentido, desde el Instituto #SaludsinBulos y la Asociación de Innovadores en eSalud estamos creando consensos sobre estos agentes conversacionales en salud en colaboración con sociedades científicas, colegios profesionales, asociaciones de pacientes, juristas y expertos en IA, entre otros. Ya está en marcha un consenso sobre IA Generativa en Dolor y otro sobre Discapacidad. Nuestro objetivo es sentar las bases de una estandarización de estos chatbots, tanto para su desarrollo como para su validación y publicación en papers.
En el caso del desarrollo, estamos impulsando proyectos innovadores basados en IA, a través del Hackathon Salud que organizamos con ITEMAS, la plataforma que reúne a las unidades de innovación de los centros sanitarios públicos. Se trata de iniciativas lideradas por profesionales sanitarios que responden a diferentes retos y que aportan valor a la asistencia sanitaria.
En cuanto a las publicaciones científicas, hasta ahora, la mayoría de los estudios sobre agentes conversacionales en salud se basan únicamente en la veracidad de las respuestas. Se les pregunta sobre las cuestiones más comunes en una patología o especialidad y se comparan las respuestas con las que darían especialistas en esa área. No obstante, pocos comprueban otros aspectos que son igual de importantes para conseguir que el paciente comprenda mejor su enfermedad y se conciencie sobre las medidas a tomar, como es el lenguaje, la empatía, la capacidad de interaccionar y adaptar las respuestas.
Por otro lado, es necesario establecer un marco claro de desarrollo, revisión, validación y verificación que proporcione tranquilidad a los emprendedores para desarrollar iniciativas que aporten valor a la asistencia sanitaria sin que ello los ponga en desventaja competitiva en el ámbito internacional o comprometa su futuro como empresas. En este sentido también estamos creando un comité de trabajo que se reúne este mes de noviembre en Málaga en las I Jornadas de Inteligencia Artificial Conversacional en Salud.
Tenemos una oportunidad, como nunca antes en la historia, para educar y concienciar a los pacientes de una manera sencilla, completa e individualizada, según su nivel de comprensión y características. También existe un riesgo como nunca antes de desinformación convincente en salud. La única manera de aprovechar la oportunidad y reducir los riesgos es trabajar unidos en la creación de estándares de calidad. No nos estamos preparando para el futuro, los chatbots basados en IA hace tiempo que están con nosotros, antes que la aparición de ChatGPT. Como siempre, llegamos tarde para muchos pacientes, pero no para todos.