Tesis Validadas: 2,591

Tesis de Posgrado: 2650

Número de Visitas: contador visitas

Please use this identifier to cite or link to this item: https://rinacional.tecnm.mx/jspui/handle/TecNM/5520
Title: ESTRATEGIA PARA ACELERAR EL ENTRENAMIENTO DE REDES NEURONALES PROFUNDAS
Authors: AVALOS LOPEZ, JORGE IVAN%1006169
metadata.dc.subject.other: Aprendizaje automático
Aprendizaje profundo
Redes neuronales profundas
Redes neuronales (Computación)
Métodos de entrenamiento
Inteligencia artificial
Inteligencia computacional
Issue Date: 2021-08-19
Publisher: Tecnológico Nacional de México
metadata.dc.publisher.tecnm: Instituto Tecnológico de León
Description: El presente trabajo muestra el desarrollo de una propuesta para acelerar el entrenamiento de una red neuronal profunda, específicamente el acelerar el entrenamiento de una red neuronal convolucional para tareas de clasificación de imágenes. Se expone la estrategia propuesta llamada: "Muestreo adaptativo para el aprendizaje profundo" (AS en sus siglas en ingles); esta propuesta es una estrategia que extrapola a la técnica de muestreo adaptativo mediante información colateral a modelos de aprendizaje profundo; específicamente, la contribución de este trabajo es la formulación de una distribución de probabilidad sobre las instancias de entrenamiento que minimice la varianza de las normas de los gradientes con respecto a la función de pérdida de la red. Así mismo, la formulación del problema se presenta de forma consistente y se da un formalismo matemático adecuado. Para comprobar y observar el comportamiento de la propuesta, se experimentó con el entrenamiento de una red neuronal convolucional sobre la base de datos MNIST. AS se comparó contra dos esquemas de muestreo de datos: muestreo uniforme (el entrenamiento estándar) y selección de lotes en línea. AS logró un mejoramiento en la convergencia de la función de costo (que esto se traduce en una aceleración del entrenamiento) entre 2 y 4 órdenes de magnitud en comparativa con default random con tamaños de lote 64, 256 y 1024 usando el optimizador Adadelta; usando el optimizador Adam, AS mostró una mejora de convergencia de 1 y 2 órdenes de magnitud con los tamaños de lote 256 y 1024. En la comparativa de AS y OBS, AS mostró una mejora de convergencia de 0.78, 0.2 y 0.92 para tamaños de lote 64, 256 y 1024 usando Adadelta; usando Adam, AS logra un rendimiento similar para tamaños de lote 256 y 1024.
metadata.dc.type: info:eu-repo/semantics/masterThesis
Appears in Collections:Maestría en Ciencias de la Computación

Files in This Item:
File Description SizeFormat 
007.-TESIS-COMPLETA_JORGE-IVÁN-ÁVALOS-LÓPEZ.pdfEstrategias para acelerar el entrenamiento de redes neuronales profundas - Tesis 007 de MCC del ITL3.28 MBAdobe PDFView/Open


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons