Alerta regulatoria! ¿En qué punto nos encontramos?
En los últimos meses, la Unión Europea ha dado pasos significativos para establecer un marco regulatorio integral que aborde los desafíos y oportunidades de la era digital en diversos sectores. Más allá del ya conocido Reglamento de Inteligencia Artificial1 (RIA), que entró en vigor el 1 de agosto de 2024, la UE ha aprobado una serie de normativas complementarias que buscan fortalecer la protección de los ciudadanos y fomentar la innovación responsable. Entre estas nuevas regulaciones destacan la normativa sobre responsabilidad extracontractual de IA2, la actualizada directiva europea de productos defectuosos3, publicada el 18 de noviembre de 2024 y el recientemente aprobado Reglamento del Espacio Europeo de Datos Sanitarios (EEDS)4. Estas iniciativas legislativas reflejan el compromiso de la UE por adaptarse a los rápidos avances tecnológicos, garantizando al mismo tiempo la seguridad, la privacidad y los derechos fundamentales de sus ciudadanos. La confluencia de estas normativas está diseñada para crear un ecosistema regulatorio robusto que abarca desde la inteligencia artificial y la responsabilidad por productos hasta la gestión de datos sanitarios, posicionando a la UE como líder mundial en la regulación de tecnologías emergentes y en la protección de los derechos digitales de sus ciudadanos.
Vamos a otorgar un especial protagonismo al RIA. Empecemos.
Un ejemplo relevante de la aplicación de IA en la asistencia sanitaria donde el Reglamento de Inteligencia Artificial se aplica es el uso de sistemas de IA para el diagnóstico precoz del cáncer de mama. La Universidad de Valencia ha desarrollado un sistema de IA para la detección temprana del cáncer de mama mediante el análisis de mamografías. Este sistema ha demostrado una alta eficacia, con un porcentaje de diagnósticos precoces del 89%5. Bajo el RIA, que entró en vigor el 1 de agosto de 2024, este tipo de sistema de diagnóstico basado en IA se clasificaría como de «alto riesgo». Esto implica que debe cumplir con requisitos rigurosos de seguridad, transparencia y rendición de cuentas. Específicamente:
El sistema debe someterse a una evaluación de conformidad exhaustiva antes de su implementación.
Se debe realizar una Evaluación de Impacto de Protección de Datos (EIPD) previa a su uso.
El sistema debe ser altamente transparente en sus decisiones, permitiendo a los profesionales médicos comprender cómo se llega a un diagnóstico específico.
Los pacientes tienen derecho a recibir explicaciones sobre las decisiones tomadas por el sistema de IA respecto a su salud.
Este ejemplo ilustra cómo el RIA busca garantizar que las aplicaciones de IA en salud sean seguras, confiables y respetuosas con los derechos de los pacientes, al tiempo que permite la innovación en el campo del diagnóstico médico asistido por IA.
El Reglamento de IA se centra en la prevención proactiva de riesgos mediante evaluaciones rigurosas, monitoreo constante y un marco legal adaptado a las particularidades de los sistemas de IA. Este enfoque protege a los usuarios y establece un entorno regulatorio que busca equilibrar la innovación con la responsabilidad. En el ámbito médico, la integración de sistemas de IA debe complementar, no reemplazar, la formación médica tradicional. Los profesionales de la salud deben desarrollar competencias tecnológicas específicas, incluyendo:
Comprensión profunda de los algoritmos de IA en su especialidad.
Capacidad para identificar sesgos y errores en los resultados de la IA.
Habilidad para interpretar correctamente los outputs generados por estos sistemas.
Manejo ético de la IA, abordando dilemas como la privacidad de datos y el impacto de decisiones automatizadas.
Comunicación efectiva con los pacientes sobre el uso de la IA en su atención médica.
Los centros sanitarios deben garantizar la formación adecuada del personal médico en el uso de estas herramientas. La responsabilidad del médico aumenta en proporción a su dominio del sistema de IA, especialmente en casos donde errores podrían haberse evitado con un mejor entendimiento de su funcionamiento. Es crucial que los médicos evalúen la aplicabilidad de las conclusiones de la IA en cada contexto clínico específico, lo que requiere formación en análisis de datos, trazabilidad de algoritmos y toma de decisiones basada en la colaboración humano-máquina.
La capacidad de comunicar claramente al paciente el papel de la IA en su diagnóstico o tratamiento es fundamental, asegurando que comprenda y consienta de manera informada el uso de esta tecnología en su atención médica.
La gobernanza ética y regulatoria de la inteligencia artificial enfrenta varios desafíos importantes:
Sesgos y discriminación. Uno de los principales retos es abordar los sesgos en los algoritmos de IA. Los sistemas pueden entrenarse con datos sesgados, lo que lleva a decisiones discriminatorias en áreas como selección de personal, préstamos o justicia. Para enfrentarlo, es necesario utilizar conjuntos de datos más diversos para el entrenamiento, implementar pruebas rigurosas para detectar y corregir sesgos y fomentar equipos de desarrollo más diversos e inclusivos. Podemos asimilar que la IA es despectiva en tanto que genera sesgos. Es capaz de determinar si un paciente concreto puede enfermar o no.
Privacidad y protección de datos. El uso masivo de datos personales por sistemas de IA genera preocupaciones sobre privacidad. Se requiere:
Garantizar el cifrado y seguridad de los datos.
Implementar controles de acceso estrictos.
Obtener consentimiento informado para el uso de datos personales.
Desarrollar marcos regulatorios sólidos de protección de datos.
Responsabilidad legal. Determinar la responsabilidad cuando un sistema de IA causa daños es complejo. Es necesario:
Desarrollar marcos legales claros sobre responsabilidad.
Establecer seguros específicos para cubrir riesgos de IA.
Definir estándares de seguridad y certificación para sistemas de IA.
Gobernanza global. El alcance de la IA trasciende fronteras, por lo que se requiere:
Cooperación internacional para establecer directrices éticas globales.
Convergencia de principios y prácticas entre regiones.
Enfoques regulatorios armonizados a nivel internacional.
Equilibrio entre innovación y regulación. Existe el desafío de regular adecuadamente sin obstaculizar la innovación. Se debe buscar:
Un enfoque regulatorio basado en riesgos.
Autorregulación complementaria de la industria.
Políticas que fomenten la innovación responsable.
Formación especializada. Se requieren profesionales que combinen conocimientos técnicos, éticos y legales. Es importante:
Fomentar programas educativos interdisciplinarios en IA ética.
Capacitar a desarrolladores en aspectos éticos y legales.
Incorporar la ética en los planes de estudio de IA.
Abordar estos desafíos requiere la colaboración entre gobiernos, industria, academia y sociedad civil para desarrollar un marco de gobernanza que promueva una IA confiable, ética y centrada en el ser humano.
La propia Agencia Española de Protección de Datos, como autoridad de control nacional, establece de forma expresa los requisitos para Auditorías de tratamientos que incluyan IA en una guía del 2021 .
Bibliografía
- https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079
- https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52022PC0496
- https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81701
- https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space_es
- https://pro.campus.sanofi/es/actualidad/articulos/inteligencia-artificial-salud
- AEPD (2021). https://www.aepd.es/guias/requisitos-auditorias-tratamientos-incluyan-ia.pdf