Una de las claves de la adherencia terapéutica es la empatía del profesional sanitario con el paciente y la Inteligencia Artificial puede ayudar a potenciarla, tanto en consulta como en el diseño de campañas, según diversos estudios que se han presentado el simposio ‘IA para la confianza en la vacunación’, organizado por el Instituto #SaludsinBulos en colaboración con el Ministerio de Sanidad y diversas sociedades científicas.
En este simposio hemos presentado las posibilidades de la IA para entrenar las habilidades de comunicación del profesional sanitario y para dar respuestas a los pacientes de manera empática y comprensible, incluso en campañas. Y es que una de las posibilidades de la IA es modelar mensajes según el sistema de creencias de cada persona, a través de lo que se conoce en ciencia cognitiva como “Experimentación del desarrollo de reglas”, que ayuda a distinguir cómo las personas creen sobre temas cotidianos mediante la identificación de patrones y la formulación de reglas y así poder desarrollar productos, servicios y mensajes adaptados a cada público. Investigadores de diversos centros de Nueva York publicaron en la revista Vaccine del pasado mes de marzo los resultados de un programa que ayuda a identificar a los padres que tienen más probabilidades de dudar de las vacunas para sus hijos, con el objetivo de realizar campañas específicas. Los autores demostraron que la IA puede ayudar a diseñar mensajes adaptados a cada sistema de creencias sobre las vacunas.
‘La parte emocional es incluso más importante que la racional en la adherencia terapéutica y eso lo saben aprovechar muy bien los fabricantes de bulos’
Este posible beneficio de la IA también lo recoge un estudio publicado el pasado mes de enero en British Medical Journal sobre las posibilidades de la IA generativa en la reticencia vacunal. El trabajo, coordinado por Heidi Larson, fundadora de Vaccine Confidence Project, concluye que la IA “puede personalizar los mensajes de acuerdo con datos demográficos específicos, amplificando su relevancia e influencia”. De este modo, se pueden desarrollar “estrategias de intervención específicas”. Por ejemplo, “chatbots basados en datos que proporcionan o contextualizan información de salud”.
Las interacciones con chatbots ya han demostrado que son vistas como “naturales” por los pacientes, e incluso con unos niveles de empatía que pueden llegar a superar a las de los humanos, como hemos comentado en esta tribuna. Por tanto, son una herramienta que puede ser muy útil para mejorar la adherencia terapéutica, sobre todo en especialidades en las que la interacción con el profesional sanitario es menor en frecuencia o en tiempo. Sin embargo, al igual que ocurre con las páginas web dirigidas a pacientes, los resultados serían mucho mayores si el médico recomendara una plataforma determinada y los mensajes que llegan a cada paciente se adaptaran a sus creencias, emociones y nivel de comprensión.
Emociones para desinformar
No hay que olvidar que la parte emocional es incluso más importante que la racional en la adherencia terapéutica y eso lo saben aprovechar muy bien los fabricantes de bulos, los negacionistas de la evidencia, que también encuentran un filón en la IA, como también advierte Heidi Larson en su estudio: “El potencial de la IA para replicar contenido similar al humano puede correr el riesgo de reproducir sesgos y amplificar la desinformación”. La clave es siempre agitar la emoción, ya que “puede amplificar los impulsores emocionales de la reticencia a vacunarse, especialmente la ira y el miedo, al generar mensajes emocionalmente estimulantes que son altamente contagiosos y tienen más probabilidades de ser creídos y difundidos”.
Este riesgo fue comprobado por investigadores australianos en un estudio publicado en JAMA el pasado mes de enero. En poco más de una hora generaron 102 artículos de blog distintos que contenían más de 17.000 palabras de desinformación relacionada con las vacunas y el vapeo. “Cada publicación era coercitiva y estaba dirigida a diversos grupos sociales, incluidos adultos jóvenes, padres jóvenes, personas mayores, personas embarazadas y personas con afecciones crónicas”. No solo estaban dirigidos a cada público, sino que tenían apariencia de científicos: “Los blogs incluían testimonios falsos de pacientes y médicos y obedecieron las indicaciones para la inclusión de referencias de aspecto científico”. También crearon 20 imágenes realistas en menos de 2 minutos. Por eso los autores proponen “medidas urgentes” de vigilancia de la IA.
Compromiso ético en IA
En este sentido, el decálogo ético sobre IA en salud promovido por el Instituto #SaludsinBulos y la Asociación de Innovadores en eSalud (AIES) recoge que “la IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello, deben ayudar a identificar las fuentes de información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz”. A este decálogo se han unido ya las tres sociedades científicas de medicina Atención Primaria (SEMERGEN, semFYC y SEMG), la Sociedad Española de Radiología Médica (SERAM) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (FAECAP).