Tesis Validadas: 2,591

Tesis de Posgrado: 2650

Número de Visitas: contador visitas

Please use this identifier to cite or link to this item: https://rinacional.tecnm.mx/jspui/handle/TecNM/7710
Full metadata record
DC FieldValueLanguage
dc.contributor.authorMorfin Villatoro, Rita Alejandra%590414-
dc.creatorMorfin Villatoro, Rita Alejandra%590414-
dc.date.accessioned2024-05-07T14:53:27Z-
dc.date.available2024-05-07T14:53:27Z-
dc.date.issued2016-06-14-
dc.identifier.urihttps://rinacional.tecnm.mx/jspui/handle/TecNM/7710-
dc.descriptionLas expresiones faciales proporcionan información no verbal acerca de los estados mentales, emociones y otros comportamientos que manifiestan las personas. La extracción y el seguimiento automático de componentes faciales en secuencias de imágenes son las principales tareas que deben resolver los sistemas de visión artificial enfocados al análisis del comportamiento humano, detección de expresiones faciales, interfaces hombre-máquina, entre otras áreas. En este trabajo se propone utilizar una cámara RGBD para crear un sistema que localice automáticamente la cara y sus componentes en secuencias de imágenes en tiempo real. El rostro y los componentes faciales se detectaron mediante la utilización de la librería facetracking. Se desarrolló un descriptor a partir de las unidades de acción de la librería facetracking para identificar las Unidades de Acción Facial (AUs - Action Unit) presentes con base en el Sistema de Codificación de Acciones Faciales (FACS) desarrollado por P. Ekman y W. Friesen. Se utilizaron diferentes algoritmos de clasificación: árboles de decisión (J48 y RepTree), algoritmos que generan reglas (NNge y PART) y máquina de soporte vectorial (de kernel lineal, de base radial y sigmoide) para reconocer el descriptor de AU’s, en clases correspondientes a expresiones faciales. Finalmente los resultados de los clasificadores con el vector fueron analizados y comparados. En el estado del arte, los trabajos que obtuvieron el mejor resultado en reconocimiento, clasificando todas las expresiones faciales básicas con un sensor RGBD, fueron los siguientes: Li, 2011 [17] con un 88%, Stocchi, 2014 [8] con un 87% y Mao, 2015 [13] con un 83%; es importante mencionar que todos ellos utilizaron la Máquina de Soporte Vectorial. En esta tesis la Máquina de Soporte Vectorial de base radial obtuvo el mejor resultado con un 88.86% en la etapa de reconocimiento.es_MX
dc.language.isospaes_MX
dc.publisherTecnológico Nacional de Méxicoes_MX
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.subjectinfo:eu-repo/classification/cti/7es_MX
dc.titleCaracterización de Expresiones Faciales con un Sensor RGBDes_MX
dc.typeinfo:eu-repo/semantics/masterThesises_MX
dc.contributor.directorPintoElias, Raul%16149-
dc.folio971es_MX
dc.rights.accessinfo:eu-repo/semantics/openAccesses_MX
dc.publisher.tecnmCentro Nacional de Investigación y Desarrollo Tecnológicoes_MX
Appears in Collections:Tesis de Maestría en Computación

Files in This Item:
File Description SizeFormat 
MC_Rita_Alejandra_Morfin_Villatoro_2016.pdfTesis5.41 MBAdobe PDFView/Open
MC_Rita_Alejandra_Morfin_Villatoro_2016_c.pdf
  Restricted Access
Cesión de derechos234.53 kBAdobe PDFView/Open Request a copy


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons