La irrupción de la inteligencia artificial (IA) en la industria farmacéutica ha generado una transformación disruptiva en múltiples procesos.
En este contexto, el Anexo 22 de las EU GMP representa un hito normativo clave al establecer los principios regulatorios específicos para el uso de modelos de IA en aplicaciones críticas bajo cumplimiento GMP.
Su enfoque se centra en garantizar la seguridad del paciente, la calidad del producto y la integridad de los datos, fijando límites técnicos y operativos a la implementación de estas tecnologías emergentes.
Este anexo aplica exclusivamente a modelos estáticos y deterministas, es decir, aquellos que no aprenden durante su uso ni presentan respuestas probabilísticas.
Modelos dinámicos o generativos, incluidas tecnologías emergentes como los modelos de lenguaje extensos (LLMs), quedan expresamente excluidos de su uso en procesos GMP críticos.
Esta decisión responde a la necesidad de trazabilidad, reproducibilidad y control exhaustivo de la lógica de decisión en entornos regulados.
Desde el punto de vista operativo, el anexo establece que el uso de IA debe sustentarse en un enfoque robusto de gestión de riesgos, integrado plenamente en el sistema de calidad farmacéutico.
Definición del uso previsto
La definición del uso previsto del modelo es el eje central de la validación
Hay que describir en detalle:
- el proceso que se pretende automatizar o asistir
- el conjunto completo de datos de entrada posibles (incluidas sus variaciones comunes y raras)
- las limitaciones del modelo.
La responsabilidad de esta caracterización recae sobre expertos del proceso, y su aprobación es condición previa al inicio del test de aceptación.
Para modelos que proporcionan apoyo a decisiones humanas (human-in-the-loop), el documento establece exigencias equivalentes a las de los procesos manuales:
- formación
- control de desempeño
- trazabilidad del operador.
Esta perspectiva reconoce que, en última instancia, la calidad del resultado depende tanto del algoritmo como del juicio humano que lo interpreta.
Validación de modelos IA en GMP
La validación de modelos IA en GMP se basa en criterios de aceptación cuantitativos.
Hay que definir métricas de rendimiento específicas (matriz de confusión, sensibilidad, especificidad, precisión o puntuación F1), en función del caso de uso.
Estas métricas deben calcularse a partir de datos de prueba independientes, suficientemente amplios y representativos del espacio muestral.
La independencia de los datos de prueba es uno de los pilares del anexo: se prohíbe su reutilización en etapas de entrenamiento o validación.
Asimismo, se establecen controles de acceso, trazabilidad y segregación funcional del personal para evitar sesgos y garantizar la transparencia del proceso de evaluación.
Integridad de datos
La integridad y la explicación de las decisiones algorítmicas también son ejes fundamentales.
El sistema debe permitir identificar qué características del dato de entrada han influido en la clasificación o predicción emitida por el modelo.
Se promueve el uso de herramientas de interpretabilidad como SHAP o LIME, que permiten revisar visual o cuantitativamente la relevancia de cada variable, facilitando la auditoría del razonamiento algorítmico.
Trazabilidad de la confianza
Otro aspecto esencial es la trazabilidad de la confianza.
El anexo exige que el sistema registre la puntuación de confianza asociada a cada predicción, lo cual permite establecer umbrales de decisión y evitar la adopción de resultados poco fiables.
Se sugiere incluso incorporar un estado de “indecisión” cuando la confianza del modelo sea baja, priorizando la prudencia sobre la automatización ciega.
Puesta en marcha de modelos IA
La puesta en operación de un modelo de IA requiere su inclusión formal bajo control de cambios y control de configuración, asegurando que cualquier modificación posterior (en el modelo, el sistema o el entorno de entrada) sea documentada, evaluada y, si procede, retesteada.
También se exige monitorización periódica del desempeño del modelo, así como del espacio de entrada, para detectar posibles desviaciones o derivas de comportamiento que comprometan su aplicabilidad.
Anexo 22 Inteligencia Artificial
En síntesis, el Anexo 22 no solo delimita el uso aceptable de la IA en entornos GMP, sino que construye un marco técnico-regulatorio sólido para su implementación.
Establece una jerarquía clara de responsabilidades, donde expertos del proceso, QA, científicos de datos y personal de IT deben colaborar desde el diseño hasta la operación.
Requiere validaciones específicas, independencia de datos, explicabilidad algorítmica, métricas de confianza y gestión continua del desempeño, todo bajo el paraguas del sistema de calidad.
Este enfoque regulador no busca frenar la innovación, sino encauzarla dentro de parámetros que garanticen la calidad y la seguridad.
Implicaciones para la industria
Para los fabricantes de medicamentos, el Anexo 22 plantea un doble reto: técnico y organizativo.
Técnicamente, implica dominar herramientas de IA bajo un prisma GMP.
Organizativamente, exige articular equipos multidisciplinares y procedimientos robustos que aseguren la gobernanza de los modelos.
En el corto plazo, este anexo puede parecer restrictivo. Sin embargo, a largo plazo, consolida una infraestructura normativa que permite integrar la IA de forma segura, confiable y escalable.
La adopción de IA en ambientes GMP será una realidad creciente, especialmente en inspección visual, mantenimiento predictivo, análisis de datos complejos o liberación en tiempo real.
El Anexo 22 ofrece el andamiaje normativo para que esa realidad se traduzca en procesos seguros, auditables y confiables.
Su cumplimiento no solo evitará desviaciones regulatorias, sino que construirá una nueva capa de excelencia operativa. En tiempos donde la transformación digital acelera, esta guía permite avanzar con firmeza y rigor.
Resumiendo
El Nuevo Anexo 22: Inteligencia Artificial en entornos GMP establece los requisitos para el uso de la IA y el aprendizaje automático en la fabricación de principios activos y medicamentos.
Establece requisitos para la selección, el entrenamiento y la validación de modelos de IA.
Hace hincapié en la definición del uso previsto del modelo, el establecimiento de métricas de rendimiento, la calidad de los datos de entrenamiento del modelo y la gestión y el procesamiento de los datos de prueba.
Prevé una supervisión continua de los sistemas de IA, que incluye el control de cambios, la supervisión del rendimiento del modelo y los procedimientos para la revisión humana cuando sea necesario.