ANTIDOTE: Inteligencia artificial explicable basada en argumentaciones para la medicina digital.
Programa específico: Iniciativa de programación conjunta en «Inteligencia artificial basada en aprendizaje automático explicable (XAI) y nuevos enfoques computacionales para la sostenibilidad medioambiental (CES)» financiada a través de CHIST-ERA IV y AEI «Proyectos de Cooperación Internacional» (Proyecto PCI2020-120717-2, financiado por MCIN/AEI/10.13039/501100011033 y por la Unión Europea «NextGenerationEU»/PRTR).
Código APCIN: PCI2020-120717-2
UPV/EHU: Beneficiario
IP UPV/EHU: Rodrigo Agerri
Inicio del proyecto: 01/04/2021
Fin del proyecto: 31/07/2024
Breve descripción: Proporcionar explicaciones de alta calidad para las predicciones de IA basadas en el aprendizaje automático es una tarea desafiante y compleja. Para que funcione bien, se requieren, entre otros factores: seleccionar un nivel adecuado de generalidad/especificidad de la explicación; considerar supuestos sobre la familiaridad del beneficiario de la explicación con la tarea de IA en consideración; hacer referencia a elementos específicos que han contribuido a la decisión; hacer uso de conocimiento adicional (por ejemplo, metadatos) que podría no ser parte del proceso de predicción; seleccionar ejemplos apropiados; proporcionar evidencia que respalde la hipótesis negativa. Finalmente, el sistema necesita formular la explicación de una manera claramente interpretable y posiblemente convincente.
Dadas estas consideraciones, ANTIDOTE promueve una visión integrada de la IA explicable, donde las características de bajo nivel del proceso de aprendizaje profundo se combinan con esquemas de nivel superior propios de la capacidad de argumentación humana. La visión integrada de ANTIDOTE se apoya en tres consideraciones: (i) en las arquitecturas neuronales, la correlación entre los estados internos de la red (por ejemplo, pesos asumidos por nodos individuales) y la justificación del resultado de la clasificación de la red no está bien estudiada; (ii) las explicaciones de alta calidad se basan fundamentalmente en mecanismos de argumentación (por ejemplo, proporcionar ejemplos de apoyo y alternativas rechazadas), que son, en gran medida, independientes de la tarea; (iii) en entornos reales, proporcionar explicaciones es inherentemente un proceso interactivo, donde se produce un diálogo explicativo entre el sistema y el usuario. En consecuencia, ANTIDOTE explotará las competencias interdisciplinarias en tres áreas, es decir, aprendizaje profundo, argumentación e interactividad, para respaldar una visión más amplia e innovadora de la IA explicable. Aunque imaginamos un enfoque integrado general para la IA explicable, nos centraremos en una serie de tareas de aprendizaje profundo en el ámbito médico, donde la necesidad de explicaciones de alta calidad para la deliberación de casos clínicos es fundamental.