<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://rinacional.tecnm.mx/jspui/handle/TecNM/992">
    <title>DSpace Collection:</title>
    <link>https://rinacional.tecnm.mx/jspui/handle/TecNM/992</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://rinacional.tecnm.mx/jspui/handle/TecNM/12238" />
        <rdf:li rdf:resource="https://rinacional.tecnm.mx/jspui/handle/TecNM/12178" />
        <rdf:li rdf:resource="https://rinacional.tecnm.mx/jspui/handle/TecNM/12176" />
        <rdf:li rdf:resource="https://rinacional.tecnm.mx/jspui/handle/TecNM/12174" />
      </rdf:Seq>
    </items>
    <dc:date>2026-05-01T10:14:14Z</dc:date>
  </channel>
  <item rdf:about="https://rinacional.tecnm.mx/jspui/handle/TecNM/12238">
    <title>Modelo de diferenciación de voz humana y sintética</title>
    <link>https://rinacional.tecnm.mx/jspui/handle/TecNM/12238</link>
    <description>Title: Modelo de diferenciación de voz humana y sintética
Authors: Rodriguez Garcia, Jibran Zaedt
Description: El presente trabajo se enfoca en el análisis y comparación de distintas técnicas para el reconocimiento de voces humanas y voces generadas sintéticamente mediante herramientas de clonación. Aunque el objetivo inicial fue desarrollar un sistema de reconocimiento, el proyecto derivó en una investigación experimental centrada en la caracterización de señales de voz, específicamente mediante la estimación de la frecuencia fundamental híbrida (hF0), como descriptor para diferenciar entre voces naturales y clonadas. &#xD;
Debido a la ausencia de un conjunto de datos confiable y equilibrado, se generó un dataset propio a partir de cuatro herramientas de clonación de voz ampliamente utilizadas: RVC, Voice.ia, ElevenLabs y Applio. Se recolectaron un total de 1,256 muestras de voz, equilibradas por idioma (español e inglés) y género (masculino y femenino). &#xD;
Los resultados experimentales muestran que la frecuencia fundamental constituye una característica relevante para la detección de voces clonadas, siendo su efectividad dependiente de la forma en que es representada y procesada. En particular, la representación de la hF0 mediante histogramas permitió obtener los mejores resultados de clasificación, alcanzando una precisión del 95%, mientras que otras variantes basadas en estadísticas simples o en salidas directas del modelo CREPE presentaron desempeños moderados. Estos hallazgos confirman el potencial del descriptor hF0 para la identificación de clonación de voz y resaltan la importancia de una adecuada extracción y representación de características acústicas. Asimismo, la construcción de un dataset diversificado con múltiples herramientas permitió reducir el sesgo asociado al uso de una sola técnica de clonación, proporcionando una base más robusta para futuros estudios en el área de la detección de deepfakes de voz.</description>
    <dc:date>2026-02-06T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://rinacional.tecnm.mx/jspui/handle/TecNM/12178">
    <title>Pre-procesamiento de Prompt's para Modelos de Lenguaje Grandes</title>
    <link>https://rinacional.tecnm.mx/jspui/handle/TecNM/12178</link>
    <description>Title: Pre-procesamiento de Prompt's para Modelos de Lenguaje Grandes
Authors: Martínez Joffroy, Carlos Javier
Description: Actualmente, la calidad de las interacciones entre los usuarios y los Modelos de Lenguaje es fundamental para alcanzar resultados óptimos en diversas aplicaciones. La experiencia demuestra que dicha calidad depende en gran medida de los Prompts empleados. Sin embargo, la literatura existente carece de estudios que evalúen de forma objetiva y cuantitativa la relación entre los Prompts y las respuestas generadas por un Modelo Grande de Lenguaje. Esto se debe, en parte, a la ausencia de métricas adecuadas para valorar la calidad de los textos de entrada, lo cual limita la evaluación precisa de los Prompts. En este contexto, el presente documento introduce PromptIQ, una métrica diseñada para medir la calidad de los Prompts y proporcionar un marco de referencia que permita la investigación sobre la relación entre las entradas y salidas de un Modelo Grande de Lenguaje.</description>
    <dc:date>2025-12-12T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://rinacional.tecnm.mx/jspui/handle/TecNM/12176">
    <title>Representación visual de datos multimodales de comportamiento para generar analítica visual del proceso de evaluación de la experiencia de usuario</title>
    <link>https://rinacional.tecnm.mx/jspui/handle/TecNM/12176</link>
    <description>Title: Representación visual de datos multimodales de comportamiento para generar analítica visual del proceso de evaluación de la experiencia de usuario
Authors: Vergara Morales, Tlaloc Humberto
Description: En el proceso de desarrollo de software, la fase de pruebas es esencial para validar la funcionalidad de un prototipo o de una versión temprana del producto. En esta etapa se busca no solo identificar fallas técnicas, sino también obtener retroalimentación directa de los usuarios, ya que su experiencia de interacción aporta información valiosa para mejorar el diseño. Existen métodos simples para recabar opiniones, como cuestionarios o encuestas, pero los enfoques más ricos suelen implicar la observación y el registro detallado de la interacción mediante videos, audio y otros datos. El problema de estos métodos es que generan grandes volúmenes de información que deben revisarse varias veces, lo que convierte el análisis en una tarea lenta y exigente para los evaluadores. Aunque se han propuesto diferentes herramientas para apoyar este proceso, muchas presentan limitaciones, como la sobrecarga de datos sin una organización clara o la falta de precisión en la representación de eventos específicos, lo que dificulta la interpretación y disminuye su utilidad práctica. Frente a este panorama, este proyecto de investigación se enfocó en diseñar y desarrollar un reproductor de video que facilitara la evaluación de la experiencia de usuario mediante la integración de datos multimodales en una única interfaz. El sistema permite superponer información directamente sobre los videos de interacción, mostrando con claridad aspectos como el seguimiento ocular, las expresiones faciales y la verbalización del usuario. Además, incorpora recursos de análisis visual que ayudan a identificar trayectorias de la mirada, zonas de interés en la interfaz y patrones de atención, representados tanto en porcentajes como en mapas de calor. Información visual sobre comentarios positivos, negativos y neutrales. Presentación de información sobre el análisis facial, como la detección de emociones, unidades de acción y estados cognitivos. La propuesta busca simplificar la labor de los evaluadores al organizar los datos de manera intuitiva y, al mismo tiempo, evitar la saturación de información que dificulte el análisis. Durante la etapa de validación se realizaron 13 pruebas completas, en las que se comprobó la calidad de los datos obtenidos y la efectividad del reproductor en la tarea de revisión. Los resultados mostraron que el sistema reduce, en promedio, en un 69.08% el tiempo necesario para extraer observaciones relevantes, lo que representa un avance significativo en eficiencia. Este ahorro de tiempo no solo facilita el trabajo de los evaluadores, sino que también permite analizar una mayor cantidad de material sin sacrificar la profundidad de las observaciones. Asimismo, se comprobó que la interfaz del reproductor resulta práctica y no interfiere con la visualización de los datos, lo que contribuye a una revisión más rápida de todos los videos de la experiencia de usuario. En conjunto, los hallazgos respaldan el valor práctico y técnico de esta herramienta, que se consolida como un apoyo sólido para la evaluación de prototipos digitales. Su capacidad para integrar de manera organizada diferentes datos visuales y facilitar la interpretación de información compleja lo convierte en una herramienta útil para identificar y corregir errores de diseño en software. Con ello, no solo se optimiza la revisión de la experiencia de usuario, sino que también se promueve un ciclo de desarrollo más ágil y eficiente, con beneficios tanto para los equipos de diseño como para los usuarios finales.</description>
    <dc:date>2025-12-11T00:00:00Z</dc:date>
  </item>
  <item rdf:about="https://rinacional.tecnm.mx/jspui/handle/TecNM/12174">
    <title>Identificación de alteraciones en el iris para detectar la aparición de un patrón para medir si existe correlación con la diabetes mellitus</title>
    <link>https://rinacional.tecnm.mx/jspui/handle/TecNM/12174</link>
    <description>Title: Identificación de alteraciones en el iris para detectar la aparición de un patrón para medir si existe correlación con la diabetes mellitus
Authors: Vigueras Villalba, Juan Carlos
Description: Actualmente, el iris del ojo humano es utilizado como un medio de identificación biométrica, empleando el procesamiento de imágenes y técnicas de reconocimiento de patrones; sin embargo, el iris puede proporcionar información útil para otros campos como por ejemplo la iridología, en la cual a través de la observación del iris se puede determinar el estado de salud de una persona. &#xD;
Basado en lo anterior, se realizó un trabajo de investigación para el reconocimiento de alteraciones en el iris del ojo humano para medir si existe una relación con la enfermedad diabetes mellitus, combinando las técnicas de procesamiento de imágenes y basándose en los estudios de iridología. &#xD;
El proyecto de investigación está dividido en tres etapas: &#xD;
La primera etapa consiste en obtener imágenes del iris ocular y mediante una aplicación permitir la detección de éste. &#xD;
La segunda etapa es el procesamiento de la imagen del iris, normalizar la zona de interés, segmentando las regiones a analizar y extraer las características de la misma. &#xD;
Finalmente, la tercera etapa consiste en realizar la clasificación de las imágenes en: iris con diabetes y sin diabetes, llevando a cabo la evaluación del sistema. &#xD;
Al concluir este trabajo se presentan los siguientes resultados: en la etapa de segmentación correcta del iris se obtuvo un 0.984 en accuracy y 0.7852 en IoU, mientras que en la detección de la enfermedad el mejor resultado que se obtuvo fue un accuracy de 0.93548387</description>
    <dc:date>2025-12-05T00:00:00Z</dc:date>
  </item>
</rdf:RDF>

