Please use this identifier to cite or link to this item: https://rinacional.tecnm.mx/jspui/handle/TecNM/5520
Full metadata record
DC FieldValueLanguage
dc.contributor.authorAVALOS LOPEZ, JORGE IVAN%1006169-
dc.creatorAVALOS LOPEZ, JORGE IVAN%1006169-
dc.date.accessioned2023-03-31T03:04:48Z-
dc.date.available2023-03-31T03:04:48Z-
dc.date.issued2021-08-19-
dc.identifier.urihttps://rinacional.tecnm.mx/jspui/handle/TecNM/5520-
dc.descriptionEl presente trabajo muestra el desarrollo de una propuesta para acelerar el entrenamiento de una red neuronal profunda, específicamente el acelerar el entrenamiento de una red neuronal convolucional para tareas de clasificación de imágenes. Se expone la estrategia propuesta llamada: "Muestreo adaptativo para el aprendizaje profundo" (AS en sus siglas en ingles); esta propuesta es una estrategia que extrapola a la técnica de muestreo adaptativo mediante información colateral a modelos de aprendizaje profundo; específicamente, la contribución de este trabajo es la formulación de una distribución de probabilidad sobre las instancias de entrenamiento que minimice la varianza de las normas de los gradientes con respecto a la función de pérdida de la red. Así mismo, la formulación del problema se presenta de forma consistente y se da un formalismo matemático adecuado. Para comprobar y observar el comportamiento de la propuesta, se experimentó con el entrenamiento de una red neuronal convolucional sobre la base de datos MNIST. AS se comparó contra dos esquemas de muestreo de datos: muestreo uniforme (el entrenamiento estándar) y selección de lotes en línea. AS logró un mejoramiento en la convergencia de la función de costo (que esto se traduce en una aceleración del entrenamiento) entre 2 y 4 órdenes de magnitud en comparativa con default random con tamaños de lote 64, 256 y 1024 usando el optimizador Adadelta; usando el optimizador Adam, AS mostró una mejora de convergencia de 1 y 2 órdenes de magnitud con los tamaños de lote 256 y 1024. En la comparativa de AS y OBS, AS mostró una mejora de convergencia de 0.78, 0.2 y 0.92 para tamaños de lote 64, 256 y 1024 usando Adadelta; usando Adam, AS logra un rendimiento similar para tamaños de lote 256 y 1024.es_MX
dc.language.isospaes_MX
dc.publisherTecnológico Nacional de Méxicoes_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subjectinfo:eu-repo/classification/cti/7es_MX
dc.subject.otherAprendizaje automáticoes_MX
dc.subject.otherAprendizaje profundoes_MX
dc.subject.otherRedes neuronales profundases_MX
dc.subject.otherRedes neuronales (Computación)es_MX
dc.subject.otherMétodos de entrenamientoes_MX
dc.subject.otherInteligencia artificiales_MX
dc.subject.otherInteligencia computacionales_MX
dc.titleESTRATEGIA PARA ACELERAR EL ENTRENAMIENTO DE REDES NEURONALES PROFUNDASes_MX
dc.typeinfo:eu-repo/semantics/masterThesises_MX
dc.contributor.directorROJAS DOMINGUEZ, ALFONSO%40620-
dc.folioTecNM-ITL_MCC-007es_MX
dc.rights.accessinfo:eu-repo/semantics/openAccesses_MX
dc.publisher.tecnmInstituto Tecnológico de Leónes_MX
Appears in Collections:Maestría en Ciencias de la Computación

Files in This Item:
File Description SizeFormat 
007.-TESIS-COMPLETA_JORGE-IVÁN-ÁVALOS-LÓPEZ.pdfEstrategias para acelerar el entrenamiento de redes neuronales profundas - Tesis 007 de MCC del ITL3.28 MBAdobe PDFView/Open


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons