Análisis de métodos de aprendizaje automático y la explicabilidad de los mismos para la selección de tratamiento de cáncer pancreático

UDC.coleccionTraballos académicoses_ES
UDC.tipotrabTFGes_ES
UDC.titulacionGrao en Enxeñaría Informáticaes_ES
dc.contributor.advisorMosqueira-Rey, Eduardo
dc.contributor.advisorBobes-Bascarán, José
dc.contributor.authorFigueirido Arnoso, Israel
dc.contributor.otherUniversidade da Coruña. Facultade de Informáticaes_ES
dc.date.accessioned2025-03-26T17:54:42Z
dc.date.available2025-03-26T17:54:42Z
dc.date.issued2025-02
dc.description.abstract[Resumen]: La creciente adopción de soluciones de Inteligencia Artificial (IA) en ámbitos sensibles como la medicina, donde la interacción con los médicos desempeña un papel clave, ha proporcionado el contexto para explorar en profundidad formas de hacer que los sistemas producidos por la IA sean comprensibles para los humanos. Además, el éxito de esos sistemas requiere la confianza de sus usuarios y, por tanto, métodos que proporcionen un mecanismo para visualizar, interpretar y comprender las decisiones tomadas por tales sistemas. Es aquí donde entra en juego la Inteligencia Artificial Explicable (XAI), gracias a la que, en contraste con el modelo de “caja negra”, el ser humano es capaz de comprender mejor las predicciones realizadas por la IA. En este trabajo, partiendo de un conjunto de datos público sobre pacientes con cáncer de páncreas (TCGA-PAAD), se explora un escenario de diagnóstico para decidir si se debe prescribir un tratamiento de quimioterapia a un paciente. Se trata de un problema de clasificación binaria, para el que utilizamos tres modelos de aprendizaje automático (Decision Trees, Random Forest y XGBoost) y se aplican algunas de las técnicas de explicabilidad más asentadas, como SHAP y LIME, entre otras, para interpretar las predicciones de dichos modelos basados en IA. El objetivo es comparar estos modelos y métodos de explicabilidad, interpretar las diferencias encontradas y evaluar su capacidad tanto para resaltar las características relevantes para los expertos médicos como para mejorar la confianza en las decisiones de la IA. es_ES
dc.description.abstract[Abstract]: The increasing adoption of Artificial Intelligence (AI) solutions in sensitive domains such as medicine, where interaction with physicians plays a key role, has provided the context for a deeper exploration of ways to make AI-produced systems understandable to humans. Moreover, the success of these systems requires the trust of their users and, therefore, methods that provide a mechanism to visualize, interpret and understand the decisions made by such systems. This is where Explainable Artificial Intelligence (XAI) comes into play. In contrast to the “black box” model, XAI enables humans to better understand the predictions made by AI. In this work, using a public dataset of pancreatic cancer (TCGA-PAAD), a diagnostic scenario is explored to determine whether a chemotherapy should be prescribed to a patient. Thus, we are facing a binary classification problem where three Machine Learning models (Decision Trees, Random Forest and XGBoost) are used and some of the most established explainability techniques, such as SHAP and LIME, among others, are applied to interpret the predictions. The aim is to compare these models and explainability methods, interpret the differences found and assess their ability both to highlight features relevant to medical experts and to improve trust in AI decisions.es_ES
dc.description.traballosTraballo fin de grao (UDC.FIC). Enxeñeria informática. Curso 2024/2025es_ES
dc.identifier.urihttp://hdl.handle.net/2183/41556
dc.language.isospaes_ES
dc.rightsAtribución 3.0 Españaes_ES
dc.rights.accessRightsopen accesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/es/*
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/es/
dc.subjectIA Explicable (XAI)es_ES
dc.subjectExplicabilidades_ES
dc.subjectAprendizaje automáticoes_ES
dc.subjectCáncer pancreáticoes_ES
dc.subjectImportancia de característicases_ES
dc.subjectHuman-in-the-Loopes_ES
dc.subjectÍndice de Similitud de Jaccardes_ES
dc.subjectExplainable AI (XAI)es_ES
dc.subjectExplainabilityes_ES
dc.subjectMachine learninges_ES
dc.subjectPancreatic canceres_ES
dc.subjectFeature importancees_ES
dc.subjectJaccard Similarity Indexes_ES
dc.titleAnálisis de métodos de aprendizaje automático y la explicabilidad de los mismos para la selección de tratamiento de cáncer pancreáticoes_ES
dc.typebachelor thesises_ES
dspace.entity.typePublication
relation.isAdvisorOfPublication770502c4-505f-4b52-80e6-22359cb07b44
relation.isAdvisorOfPublication.latestForDiscovery770502c4-505f-4b52-80e6-22359cb07b44

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
FigueiridoArnoso_Israel_TFG_2025.pdf
Size:
1.35 MB
Format:
Adobe Portable Document Format
Description:
TFG_EI_ES