Use this link to cite:
https://hdl.handle.net/2183/45568 Sistema automático para la detección y clasificación de patologías pulmonares mediante el análisis de radiografías de tórax
Loading...
Identifiers
Publication date
Authors
Fernández Moreira, Breogán
Other responsabilities
Universidade da Coruña. Facultade de Informática
Journal Title
Bibliographic citation
Type of academic work
Academic degree
Abstract
[Resumen]: El diagnóstico de enfermedades pulmonares a partir de radiografías de tórax continúa siendo uno de los principales retos en el ámbito de la medicina radiológica, especialmente en contextos con escasez de profesionales especializados. En este escenario, el uso de técnicas de inteligencia artificial, y más concretamente del aprendizaje profundo, se presenta como una herramienta prometedora para apoyar la detección precoz, precisa y automatizada de múltiples patologías torácicas. Este Trabajo de Fin de Grado tiene como objetivo el diseño, entrenamiento y comparación sistemática de distintas arquitecturas de redes neuronales profundas aplicadas a la clasificación multiclase de patologías pulmonares en radiografías de tórax. Para ello, se han evaluado diez modelos representativos de diferentes familias de arquitecturas, incluyendo redes convolucionales clásicas (como ResNet34, DenseNet121 o VGG16), variantes más modernas (EfficientNetV2, ConvNeXt, ShuffleNet, etc.) y modelos basados en transformadores (Vision Transformer y MaxViT). Todos los modelos han sido entrenados bajo un protocolo homogéneo, utilizando técnicas de ajuste dinámico del learning rate y selección del mejor modelo en validación, con el fin de garantizar una comparación justa y robusta. El rendimiento de cada arquitectura se ha evaluado utilizando la métrica AUC por clase, así como la media global entre todas las patologías. Los resultados obtenidos evidencian que la arquitectura MaxViT alcanza el mejor rendimiento medio (AUC = 0.841), superando a modelos ampliamente reconocidos del estado del arte. Asimismo, se ha incorporado un análisis de explicabilidad mediante la técnica Grad-CAM, generando mapas de activación sobre cada imagen que permiten visualizar qué regiones anatómicas han sido más relevantes en la toma de decisiones del modelo. Estos mapas evidencian una correspondencia razonable con las localizaciones clínicas esperadas, reforzando la confianza en el sistema como apoyo al diagnóstico. En conjunto, este trabajo no solo ofrece un análisis comparativo exhaustivo de modelos actuales de clasificación en imágenes médicas, sino que también pone de relieve la importancia de integrar mecanismos de explicabilidad para facilitar su futura adopción clínica. Los resultados obtenidos abren la puerta al desarrollo de herramientas automáticas de cribado que podrían ser especialmente útiles en entornos hospitalarios con alta carga asistencial o recursos limitados.
Description
[Abstract]: The diagnosis of pulmonary diseases from chest X-rays remains one of the main challenges in radiological medicine, particularly in settings with a shortage of specialized professionals. In this context, artificial intelligence techniques, particularly deep learning, have emerged as a promising tool to support the early, accurate, and automated detection of various thoracic pathologies. This Final Degree Project aims to design, train, and systematically compare different deep neural network architectures for the multiclass classification of pulmonary diseases in chest radiographs. Ten representative models from various architectural families have been evaluated, including classical convolutional networks (such as ResNet34, DenseNet121, and VGG16), more modern variants (EfficientNetV2, ConvNeXt, ShuffleNet, etc.), and transformerbased models (Vision Transformer and MaxViT). All models were trained under a homogeneous protocol using dynamic learning rate adjustment and validation-based model checkpointing to ensure a fair and robust comparison. The performance of each architecture was evaluated using the AUC metric per class, as well as the overall mean across all pathologies. The results show that the MaxViT architecture achieved the highest average performance (AUC = 0.841), outperforming several widely recognized state-of-the-art models. Additionally, an explainability analysis was incorporated using the Grad-CAM technique, which generates activation maps over each input image to highlight the most relevant anatomical regions involved in the model’s decision-making process. These maps demonstrate a reasonable correspondence with clinically expected locations, thereby reinforcing confidence in the system as a reliable tool to support diagnostic decisionmaking. Overall, this work provides a comprehensive comparative analysis of state-of-the-art classification models in medical imaging and highlights the importance of incorporating explainability mechanisms to foster future clinical adoption. The findings pave the way for developing automated screening tools that may be particularly useful in healthcare environments with high patient loads or limited resources.
Editor version
Rights
Attribution 4.0 International








