La credibilidad de la inteligencia artificial es un factor crítico para aceptar su uso en la toma de decisiones.
La FDA publicó el borrador de una Guidance sobre el uso de inteligencia artificial en decisiones relacionadas con seguridad, eficacia o calidad de medicamentos.
Un punto clave del proyecto es que introduce un enfoque basado en el riesgo para valorar la credibilidad de los modelos de IA.
El objetivo de la FDA es que se pueda establecer y evaluar la confianza en el desempeño de un modelo de IA para un uso específico.
La guía enfatiza la importancia de definir claramente el contexto de uso del modelo de IA, ya que esto constituye la base para su evaluación.
Credibilidad de la inteligencia artificial
La estrategia de riesgo para valorar la credibilidad de los modelos de IA, propuesta por la FDA, comprende siete etapas:
- Etapa 1: Definir la cuestión del interés.
- Etapa 2: Definir el contexto de uso para el modelo de IA.
- Etapa 3: Evaluaciones del riesgo del modelo de IA.
- Etapa 4: Desarrollar un plan para establecer la credibilidad del modelo de IA en el contexto del uso definido.
- Etapa 5: Ejecutar ese plan.
- Etapa 6: Documentar los resultados del plan de evaluación de la credibilidad y discutir sus posibles desviaciones.
- Etapa 7: Determinar la adecuación del modelo de IA para el contenido de uso.
La guía también hace hincapié en la importancia de la vigilancia y el mantenimiento continuos de los modelos de IA para garantizar que sigan siendo fiables durante todo su tiempo de uso.
Esto incluye evaluar regularmente el rendimiento del modelo y documentar cualquier cambio que pueda afectar a sus resultados.
La FDA alienta a los laboratorios a ponerse en contacto con la agencia al principio del proceso, para discutir la evaluación de la credibilidad de los modelos de IA, o el uso de IA en el desarrollo de medicamentos.
Las observaciones públicas sobre este proyecto pueden presentarse hasta el 7 de abril de 2025 para garantizar que se consideren en la versión final de la Guidance.

