Análisis de métodos de aprendizaje automático y la explicabilidad de los mismos para la selección de tratamiento de cáncer pancreático

Loading...
Thumbnail Image

Identifiers

Publication date

Authors

Figueirido Arnoso, Israel

Advisors

Bobes-Bascarán, José

Other responsabilities

Universidade da Coruña. Facultade de Informática

Journal Title

Bibliographic citation

Type of academic work

Abstract

[Resumen]: La creciente adopción de soluciones de Inteligencia Artificial (IA) en ámbitos sensibles como la medicina, donde la interacción con los médicos desempeña un papel clave, ha proporcionado el contexto para explorar en profundidad formas de hacer que los sistemas producidos por la IA sean comprensibles para los humanos. Además, el éxito de esos sistemas requiere la confianza de sus usuarios y, por tanto, métodos que proporcionen un mecanismo para visualizar, interpretar y comprender las decisiones tomadas por tales sistemas. Es aquí donde entra en juego la Inteligencia Artificial Explicable (XAI), gracias a la que, en contraste con el modelo de “caja negra”, el ser humano es capaz de comprender mejor las predicciones realizadas por la IA. En este trabajo, partiendo de un conjunto de datos público sobre pacientes con cáncer de páncreas (TCGA-PAAD), se explora un escenario de diagnóstico para decidir si se debe prescribir un tratamiento de quimioterapia a un paciente. Se trata de un problema de clasificación binaria, para el que utilizamos tres modelos de aprendizaje automático (Decision Trees, Random Forest y XGBoost) y se aplican algunas de las técnicas de explicabilidad más asentadas, como SHAP y LIME, entre otras, para interpretar las predicciones de dichos modelos basados en IA. El objetivo es comparar estos modelos y métodos de explicabilidad, interpretar las diferencias encontradas y evaluar su capacidad tanto para resaltar las características relevantes para los expertos médicos como para mejorar la confianza en las decisiones de la IA.
[Abstract]: The increasing adoption of Artificial Intelligence (AI) solutions in sensitive domains such as medicine, where interaction with physicians plays a key role, has provided the context for a deeper exploration of ways to make AI-produced systems understandable to humans. Moreover, the success of these systems requires the trust of their users and, therefore, methods that provide a mechanism to visualize, interpret and understand the decisions made by such systems. This is where Explainable Artificial Intelligence (XAI) comes into play. In contrast to the “black box” model, XAI enables humans to better understand the predictions made by AI. In this work, using a public dataset of pancreatic cancer (TCGA-PAAD), a diagnostic scenario is explored to determine whether a chemotherapy should be prescribed to a patient. Thus, we are facing a binary classification problem where three Machine Learning models (Decision Trees, Random Forest and XGBoost) are used and some of the most established explainability techniques, such as SHAP and LIME, among others, are applied to interpret the predictions. The aim is to compare these models and explainability methods, interpret the differences found and assess their ability both to highlight features relevant to medical experts and to improve trust in AI decisions.

Description

Editor version

Rights

Atribución 3.0 España
Atribución 3.0 España

Except where otherwise noted, this item's license is described as Atribución 3.0 España