La aplicación de la inteligencia artificial (IA) en el ámbito sanitario plantea importantes retos sobre el régimen de responsabilidad exigible a los diferentes actores involucrados en el acto sanitario.
El crecimiento exponencial de reclamaciones por daños de salud año tras año es una realidad que cada vez más obliga a nuevas soluciones en la gestión de las reclamaciones, pero sobre todo en materia de derecho sanitario adelantarnos a los posibles escenarios para ofrecer soluciones. No obstante, para poder entender hacia dónde vamos, debemos recordar de dónde venimos.
Una de las causas del incremento de reclamaciones en materia de responsabilidad tiene que ver con la propia evolución de la concepción de la medicina. La relación médico-paciente cada vez es menos directa para encuadrarse en diversos ámbitos organizativos. Desde el punto de vista del paciente hay un cambio importante de actitud, se pasa de una situación de sometimiento y resignación a otra de mayor exigencia de calidad y cantidad de prestaciones asistenciales.
También, la evolución de la concepción de la medicina en la que encuadramos la digitalización de la relación sanitaria, sin duda, supone una mejora de la asistencia sanitaria. Un ejemplo, lo tuvimos con la Telemedicina que jugó un papel esencial durante la pandemia de la COVID-19, pero en materia de responsabilidad también supuso un antes y un después. Antes de la pandemia se conocía una sola sentencia que resolvía una reclamación de responsabilidad médica por un acto de telemedicina; actualmente, el incremento de reclamaciones en sede de responsabilidad por actos de telemedicina es una realidad.
El uso de IA en la medicina también supondrá un reto legal en materia de responsabilidad profesional sanitaria. Tenemos que recordar que conforme al Reglamento (UE) 2017/745, los softwares de IA utilizados para la toma de decisiones clínicas tienen que ser calificados como productos sanitarios y deberán cumplir con la normativa relativa a productos sanitarios, contando específicamente con un seguro de responsabilidad civil que cubra los daños causados por su utilización.
En cualquier caso, la IA, nunca, debe sustituir la labor asistencial del médico. Los datos de salud extraídos de grandes bases de datos sanitarias o los sistemas robóticos pueden servir de ayuda en la toma de decisiones clínicas y sanitarias, pero no sustituyen la obligación que el médico tiene de utilizar los métodos necesarios para la buena práctica profesional. La supervisión humana es crucial para garantizar la seguridad y la ética en la atención al paciente, verificando las decisiones tomadas por la IA y previniendo errores.
‘La IA nunca debe sustituir la labor asistencial del médico’
La supervisión humana implica aspectos clave, como; se debe entender adecuadamente las capacidades y limitaciones del sistema de IA, igualmente, es importante que los supervisores sean conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados generados por el sistema de IA. Este sesgo de automatización puede influir en la toma de decisiones, especialmente cuando el sistema proporciona información o recomendaciones para que los médicos adopten una decisión Los supervisores deben ser capaces de interpretar correctamente los resultados generados por el sistema de IA, teniendo en cuenta los métodos y herramientas de interpretación disponibles y lo más importante , los supervisores deben tener la capacidad de decidir no utilizar el sistema de IA o descartar, invalidar o revertir los resultados que este genere.
Las causas de reclamaciones por infracción de la lex artis en el contexto del uso de la medicina con apoyo en la IA van a ser iguales que las del acto médico tradicional. En toda responsabilidad profesional sanitaria debe existir el elemento de culpa, y este como omisión de la diligencia exigible que equivale al incumplimiento de la lex artis. Los protocolos y las guías de práctica clínica son manifestaciones destacadas de la lex artis.
En caso de incumplimiento pudiera entenderse que el médico ha actuado de forma contraria a la lex artis. Pero lo esencial para delimitar la responsabilidad aplicable al médico será el origen del daño. Aquí la casuística puede ser de lo más variada: sistema de software perfecto, pero mal utilizado por el médico, un error de diseño del software de IA, un sesgo, un error por parte de un tercero o el médico al introducir los datos, un diagnóstico erróneo basado en datos erróneos generados por la IA y responsabilidades concurrentes.
En definitiva, la responsabilidad civil derivada de la IA en el ámbito sanitario plantea, sin duda, desafíos legales y éticos. No obstante, sigue siendo esencial que la actuación del médico se mantenga guiada por la normativa sanitaria y sin duda, por el código de deontología médica.