Utilize este identificador para referenciar este registo: https://rinacional.tecnm.mx/jspui/handle/TecNM/4841
Título: Método para la detección de emociones mediante el análisis de expresión facial en videos de evaluación de la experiencia de usuario.
Autor: Hernandez Perez, Luis Alfredo%1031231
Data: 2022-11-30
Editora: Tecnológico Nacional de México
metadata.dc.publisher.tecnm: Centro Nacional de Investigación y Desarrollo Tecnológico
Descrição: Las expresiones faciales resultan de gran importancia cuando se trata de la interacción entre personas, ya que revelan estados emocionales y cognitivos complejos los cuales son visualmente expresados por las personas (Arango et al., 2013; Fasel y Luettin, 2003). El rostro humano es considerado el principal sistema visual para mostrar las emociones, además de ser el área visual más importante y compleja de la comunicación no verbal y la que más se observa y analiza durante cualquier tipo de interacción social. La experiencia de usuario (UX) se puede considerar como un atributo de calidad de un producto, proceso o servicio, definiendo si es fácil de adaptar, eficiente de usar y cómodo. La evaluación de la experiencia del usuario (UX por sus siglas en inglés) puede usarse como una herramienta para determinar el grado de aceptación o rechazo que experimenta un usuario cuando utiliza un producto, proceso o servicio. En el proceso de evaluación de la experiencia de usuario (UXE), una fuente de información muy relevante que está presente y que es difícil de alterar, es el rostro del usuario, ya que los cambios de estados emocionales de las personas, por lo general, hacen hincapié en la transmisión de un mensaje durante la interacción social y con ello se puede identificar de manera natural el impacto emocional que el usuario presenta durante la interacción con un producto digital. Este hecho ha motivado un gran número de investigaciones para que las máquinas puedan reconocer las emociones humanas. Hay varias aplicaciones de la computación afectiva para facilitar la interacción humano-computadora (A. Sunitha, et al, 2017). Por ello en esta tesis se presenta la implementación de un algoritmo de aprendizaje automático con la capacidad de realizar el reconocimiento de emociones mediante el análisis de expresiones faciales con la finalidad de demostrar que el reconocimiento de emociones aporta información importante y complementaria en una evaluación de la UX integrando el algoritmo a una plataforma denominada UXLab. Para el análisis de características se extrajeron puntos de referencia del rostro utilizando un modelo pre-entrenado el cual localiza 68 puntos (x, y) y los sitúa en el rostro de los cuales se utilizaron solamente 17 para calcular distancias geométricas entre ciertos músculos del rostro tomando como referencia el Sistema de Codificación de Acción Facial para emociones (EMFACS por sus siglas en inglés) propuesta por Eckman, lo que permite describir las emociones. El sistema se entrenó con un repositorio propio y las pruebas de evaluación fueron con el conjunto de datos CK+ usado en la literatura, las pruebas de validación realizadas fueron tanto con imágenes estáticas como con videos generados en una evaluación de la experiencia de usuario. Los resultados obtenidos son del 84.52% de precisión, en el reconocimiento de 3 emociones Felicidad, Enojo, Sorpresa y la expresión Neutral.
metadata.dc.type: info:eu-repo/semantics/masterThesis
Aparece nas colecções:Tesis de Maestría en Computación

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
MC_Luis_Alfredo_Hernandez_Perez_2022.pdf
  Restricted Access
Cesión de derechos380.71 kBAdobe PDFVer/Abrir Request a copy
MC_Luis_Alfredo_Hernandez_Perez_2022.pdfTesis5.82 MBAdobe PDFVer/Abrir


Este registo está protegido por copyright original.



Este registo está protegido por Licença Creative Commons Creative Commons