Show simple item record

dc.contributor.advisorCancela, Brais
dc.contributor.advisorBolón-Canedo, Verónica
dc.contributor.authorTaboada Pena, María
dc.contributor.otherEnxeñaría informática, Grao enes_ES
dc.date.accessioned2021-10-21T17:58:19Z
dc.date.available2021-10-21T17:58:19Z
dc.date.issued2021
dc.identifier.urihttp://hdl.handle.net/2183/28703
dc.description.abstract[Resumen]En este trabajo fin de grado es un proyecto de Deep Learning, en concreto trata del estudio de una de las vulnerabilidades de hacer clasificación con redes neuronales convolucionales (CNN), los ataques adversos. Los ataques adversos cambian la imagen de entrada ligeramente de forma imperceptible para el ojo humano. Al pasar esta imagen modificada por el clasificador, la clasificación es errónea y con un porcentaje alto de confianza en la clase predicha. El problema está más cercano a un problema de “hacking”. Se pretende conocer la cantidad de modificaciones que hay que realizar en una imagen de entrada para que el clasificador cambie su predicción. A lo largo de la memoria se presenta un nuevo método, DENA, para mejorar la cuantificación de la robustez de las CNN. Con este trabajo se pretende dar a conocer estos ataques, reproducirlos y dar un valor numérico a estos cambios con el fin de poder medir la robustez de una red ante posibles ataques de este tipo.es_ES
dc.description.abstract[Abstract]This final degree project is about Deep Learning, specifically about the study of one of the vulnerabilities of classifying with convolutional neural networks (CNN): the adversarial attacks. Adversarial attacks change the input image slightly imperceptibly to the human eye. When passing this modified image through the classifier, the classification is wrong and with a high percentage of confidence in the predicted class. The problem is closer to a “hacking” problem. It is try to know the amount of modifications that must be made in an input image for the classifier to change its prediction. Throughout the memory, a new method, DENA, is presented to improve the quantification of the robustness of CNNs. This work is intended to make these attacks known, reproduce them and give a numerical value to these changes in order to be able to measure the robustness of a network against possible attacks of this type.es_ES
dc.language.isospaes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Españaes_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/*
dc.subjectEjemplo adversoes_ES
dc.subjectGradientees_ES
dc.subjectFunción de pérdidaes_ES
dc.subjectOptimizadores_ES
dc.subjectRed neuronal profundaes_ES
dc.titleMétricas para determinar la dificultad de sabotear una Rede Neuronal Convolucionales_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.rights.accessinfo:eu-repo/semantics/openAccesses_ES
dc.description.traballosTraballo fin de grao. Enxeñaría Informática. Curso 2020/2021es_ES


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record