La capacidad de la inteligencia artificial para analizar enormes conjuntos de datos y hacer predicciones precisas ha favorecido que su uso en el ámbito médico haya crecido rápidamente en los últimos años, especialmente en áreas como el análisis de imágenes.
Muchos estudios científicos muestran que los algoritmos pueden llegar a rivalizar e incluso superar a los especialistas médicos a la hora de diagnosticar diferentes enfermedades como, por ejemplo, la retinopatía diabética, el cáncer de mama o la tuberculosis pulmonar.
Los modelos de IA también pueden predecir con gran precisión aspectos como la duración de la estancia en el hospital de un paciente ingresado, la probabilidad de muerte hospitalaria o de reingreso no planificado.
Uno de los principios más importantes que debe guiar el desarrollo de la IA es el de justicia, lo que implica garantizar que las decisiones de los algoritmos son efectivamente justas y no se ven condicionadas por factores externos o internos al modelo de IA.
Aunque la IA puede parecer objetiva, lo cierto es que debemos tener en consideración que está sujeta a prejuicios humanos o sesgos, algoritmos opacos y dilemas éticos.
Sesgos
Los sesgos pueden aparecer en cualquier fase de desarrollo de la IA y adoptar diferentes formas. Los más habituales son los relacionados con factores demográficos: sexo, raza, edad, religión, orientación sexual, ingresos, ubicación geográfica, idioma, IMC, estilo de vida, etc.
Pueden producirse y expandirse desde la concepción del modelo, pasando por la obtención, etiquetado, caracterización de las variables necesarias y análisis de los datos, hasta las propias decisiones del modelo de IA.
No detectar o pasar por alto los posibles sesgos al construir o implementar un determinado modelo de IA podría traducirse en el llamado “sesgo de confirmación”, lo que llevaría a un especialista a estar de acuerdo con los hallazgos falsos negativos de un algoritmo, pasando por alto una determinada lesión o diagnóstico, además de replicar, agravar y perpetuar disparidades e inequidades en la atención al paciente.
Asimismo, las recomendaciones basadas en modelos sesgados o aplicaciones incorrectas de un modelo de IA, podrían provocar un incremento de enfermedades, lesiones y muertes en ciertas poblaciones de pacientes, así como un sobrecoste de tiempo y dinero.
Los sesgos a menudo son involuntarios, pero también pueden introducirse deliberadamente. Algunos investigadores alertan de que las herramientas de IA en los hospitales podrían llegar a diseñarse para priorizar los indicadores de calidad o hacer recomendaciones que beneficien económicamente a la empresa desarrolladora, a una determinada compañía farmacéutica o a la propia institución, sin el conocimiento de los profesionales ni de los pacientes.
Para abordar la problemática relacionada con los sesgos es imprescindible, como punto de partida, tener en cuenta el contexto legal y social del país o región donde se desarrollará e implementará el modelo de IA, así como el objetivo final que se pretende alcanzar. Para ayudar a corregir o minimizar el sesgo pueden utilizarse diferentes fuentes para extraer los datos, entornos controlados de prueba y métricas denominadas de fairness o justicia, que se aplicarían en distintos puntos del proceso de desarrollo de un modelo, por ejemplo, al analizar los datos de entrada, para corregir un posible desequilibrio, durante el entrenamiento del modelo, o inclusive si el modelo está ya desplegado.
Inexplicabilidad
Otra preocupación muy importante entorno a la IA en medicina es la opacidad de los algoritmos y la falta de transparencia, lo que se conoce como “caja negra” de la IA.
La necesidad de poder comprender cómo los modelos de IA toman las decisiones es crucial, ya que éstos funcionan de manera autónoma y no permiten conocer el peso que ha podido tener cada variable considerada en la configuración del resultado final que nos ofrece el modelo. En otras palabras, las recomendaciones obtenidas en los procesos algorítmicos de los sistemas de IA son mecanismos causales inexplicables.
Diversos investigadores sostienen que la precisión, más allá de la explicabilidad, debe ser el pilar esencial de la IA en medicina. O lo que es lo mismo, si se logran resultados efectivos que conducen a tratamientos exitosos, no debe preocupar el hecho de no poder explicar las causas subyacentes que llevan a esos resultados.
No obstante, esto puede convertirse en un problema muy importante cuando el objetivo es utilizar la IA como un recurso para priorizar medios sanitarios limitados de manera equitativa.
Además, la inexplicabilidad de la IA dificulta la atribución de responsabilidades en el caso de que se hayan cometido errores médicos, obstaculiza el reconocimiento de los sesgos y pone en tela de juicio la confianza y la transparencia necesarias para lograr la aceptación pública de esta tecnología.
‘Los modelos de inteligencia artificial están revolucionando la atención médica y el cuidado de la salud a un nivel difícilmente imaginable pocos años atrás’
Existen algunos tipos de técnicas de explicabilidad en IA que tratan de entender cómo funciona un modelo sin que haya que sacrificar su rendimiento. Sin embargo, aún es necesario seguir investigando sobre ellas y desarrollarlas para que puedan aplicarse a todo tipo de modelos, y nos ayuden a comparar qué técnicas de explicabilidad son mejores para cada caso, cómo aplicarlas para los modelos más novedosos, entender qué límites hay en el entrenamiento de los algoritmos o en los datos de entrada, detectar las vulnerabilidades antes de desplegar los modelos y lograr que éstos nos den cada vez mejores explicaciones para poder perfeccionarlos.
Conclusiones
Los modelos de inteligencia artificial son, en mi opinión, recursos excepcionales para los profesionales sanitarios. Están revolucionando la atención médica y el cuidado de la salud a un nivel difícilmente imaginable pocos años atrás.
A medida que la IA médica evoluciona, nos enfrentamos a preguntas complejas: ¿quién decide qué es justo? ¿cuánto sesgo es aceptable? ¿es necesario que los algoritmos sean más precisos que las personas, o es suficiente que sean igual de buenos? ¿cómo se debe valorar el uso de algoritmos inexplicables? ¿si es preciso, es siempre válido?
Las respuestas no son sencillas, más aún, teniendo en cuenta que temas tan importantes como la privacidad de los datos, la transparencia y la seguridad deben ser ejes centrales de los modelos de IA.
En este sentido, se hace más que necesario contar con regulaciones y normativas específicas, que además proporcionen un marco jurídico seguro tanto a los profesionales como a los pacientes. De igual modo, es esencial desarrollar planes estratégicos y protocolos normalizados de validación y monitorización de los modelos de IA. Para ello, es indispensable la creación de equipos transdisciplinares que combinen diversos perfiles: científicos informáticos, bioinformáticos, médicos y enfermeras, investigadores, epidemiólogos, sociólogos, juristas, economistas y, por supuesto, pacientes.
Por todo ello, resulta obligatorio ser conscientes de las limitaciones actuales de esta tecnología y cuestionarnos diferentes aspectos relacionados con su viabilidad. Igualmente, es fundamental ir paso a paso en su implantación en la práctica médica habitual para que la inteligencia artificial se convierta en una auténtica palanca de transformación de los sistemas sanitarios.