Please use this identifier to cite or link to this item: https://rinacional.tecnm.mx/jspui/handle/TecNM/2916
Full metadata record
DC FieldValueLanguage
dc.contributor.authorPerez Tovar, Jose Manuel%886593-
dc.creatorPerez Tovar, Jose Manuel%886593-
dc.date.accessioned2022-02-17T18:15:32Z-
dc.date.available2022-02-17T18:15:32Z-
dc.date.issued2020-07-21-
dc.identifier.urihttps://rinacional.tecnm.mx/jspui/handle/TecNM/2916-
dc.descriptionEn el presente trabajo de investigación se propuso el diseño y la implementación de un modelo autoadaptable de segmentación de imágenes digitales por discontinuidades. La segmentación es un tema complejo y abierto a la investigación, su objetivo es subdividir una imagen en sus partes u objetos constituyentes de interés para alguna aplicación particular. En un sistema clásico de visión artificial, la segmentación es una etapa medular que definirá el éxito o fracaso de las etapas de análisis posteriores; estos sistemas generalmente se diseñan para un determinado tipo de imágenes y son de configuración fija; el modelo propuesto buscaba proporcionar cierto grado de flexibilidad y adaptabilidad a la segmentación, con el objeto de segmentar distintos tipos de imágenes. Para lograr tal objetivo, las imágenes se caracterizaron a través de la extracción de sus descriptores visuales de color, textura y forma del estándar MPEG-7 (se les denominará descriptores visuales MPEG-7 o simplemente descriptores visuales en el resto de este documento), de tal manera que mediante esta información fuera posible su identificación y reconocimiento. Los descriptores visuales MPEG-7 generalmente se utilizan en sistemas de recuperación de imágenes con base en contenido CBIR (Content-Based Image Retrieval). En este caso, a través de una combinación de los descriptores visuales, se creó un vector de características como identificador de cada imagen en un conjunto predefinido. El modelo funciona aplicando una serie de combinaciones de técnicas de preprocesamiento y de segmentación a un conjunto de imágenes, el resultado obtenido es comparado con su imagen de bordes de referencia (ground truth), si el grado de similitud entre ellos es igual o mayor a un valor o umbral mínimo predefinido, entonces la secuencia de las técnicas aplicadas se considera exitosa y se utiliza para “etiquetar” al vector de características de la imagen procesada. Los descriptores visuales MPEG-7 asociados con las secuencias de técnicas aplicadas exitosamente, se emplean para entrenar algoritmos de aprendizaje automático supervisado y crear modelos de predicción. Estos modelos reciben los descriptores visuales de una nueva imagen de entrada y generan una recomendación de la secuencia de técnicas de preprocesamiento y segmentación que deberán ser aplicadas para segmentar la nueva imagen. Se realizó una implementación del modelo y los resultados obtenidos en la experimentación mostraron que es posible utilizar descriptores de imagen MPEG-7 y las técnicas de aprendizaje automático para generar modelos de clasificación que permitan predecir o recomendar las técnicas de segmentación adecuadas para procesar nuevas imágenes.es_MX
dc.language.isospaes_MX
dc.publisherTecnológico Nacional de Méxicoes_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subjectinfo:eu-repo/classification/cti/7es_MX
dc.subject.othersegmentación de imagenes digitales, descriptores visuales de color, descriptores visuales MPEG-7es_MX
dc.titleDiseño e Implementación de un Modelo Autoadaptable de Segmentación de Imágenes Digitales por Discontinuidadeses_MX
dc.typeinfo:eu-repo/semantics/masterThesises_MX
dc.contributor.directorPinto Elias, Raul%16149-
dc.folio20-122es_MX
dc.rights.accessinfo:eu-repo/semantics/openAccesses_MX
dc.publisher.tecnmCentro Nacional de Investigación y Desarrollo Tecnológicoes_MX
Appears in Collections:Tesis de Maestría en Computación

Files in This Item:
File Description SizeFormat 
MC_Jose_Manuel_Perez_Tovar_2020.pdfTesis7.64 MBAdobe PDFView/Open
MC_Jose_Manuel_Perez_Tovar_2020.pdf
  Restricted Access
Cesión de derechos44.02 kBAdobe PDFView/Open Request a copy


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons