• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 6
  • Tagged with
  • 40
  • 40
  • 18
  • 15
  • 13
  • 11
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Robustez a Variabilidad de Locutor en Reconocimiento de Voz con VTLN

Catalán Ludwig, Ignacio January 2011 (has links)
No description available.
22

Desarrollo de Aplicación Remota de Biometría por Voz para Telefonía Celular

Herrada Bañados, Alvaro Francisco January 2011 (has links)
No autorizada por el autor para de publicada a texto completo / El área de procesamiento de voz estudia diversos temas uno de los cuales es la verificación de identidad del locutor a través de la huella vocal. Un servidor de este tipo fue desarrollado en el Laboratorio de Procesamiento y Transmisión de Voz (LPTV) de la U. de Chile. El objetivo principal de la memoria es implementar y evaluar una aplicación de verificación de locutor ocupando una arquitectura cliente-servidor con un celular smartphone como terminal de usuario. El procesamiento de la señal grabada debe ser centralizado y el acceso a internet realizado por Wi-Fi. Para conseguir los objetivos propuestos se creó un programa cliente en un smartphone con sistema operativo Android que se comunica con el servidor de verificación de locutor del LPTV. El usuario tiene acceso a la aplicación mediante una interfaz touchscreen que también se diseñó e implementó en esta memoria. Inicialmente se explican los sistemas de verificación de huella vocal, las arquitecturas de reconocedores de voz ocupadas en telefonía, así como la plataforma de desarrollo Android. Posteriormente se realiza una descripción de las soluciones creadas para cumplir con los requisitos del servidor: creación de audio muestreado a una tasa de 8KHz con 16 bit por muestra y formación de un string codificado en formato UTF-8 (8-bit Unicode Transformation Format) base 64. Como resultado de este proyecto se obtiene una aplicación demo que permite verificar la identidad del usuario compatible con el sistema operativo Android 1.5 o posterior. Su evaluación se realizó con una base de datos de 40 personas (20 hombres y 20 mujeres). Se obtuvo un EER (Equal Error Rate) o porcentaje de error igual a 2.5% en modo de teléfono normal y 5.0% en modo altavoz. Como trabajo futuro se sugiere optimizar la aplicación con acceso a Internet vía 3G e implementar parte del procesamiento localmente con el fin de reducir el número de bytes a transmitir.
23

Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados

Contreras Schneider, Daniel Alfonso January 2012 (has links)
Ingeniero Civil Electricista / El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
24

Evaluación Automática de Pronunciación de Frases para Hablantes No Nativos

Benavides Berrios, Leopoldo Felipe Andrés January 2011 (has links)
No description available.
25

Object Detection Using Nested Cascades of Boosted Classifiers. A Learning Framework and Its Extension to The Multi-Class Case

Verschae Tannenbaum, Rodrigo January 2010 (has links)
No description available.
26

Diseño e implementación de una técnica para la detección intrínseca de plagio en documentos digitales

Oberreuter Gallardo, Gabriel Ignacio León January 2013 (has links)
Magíster en Gestión de Operaciones / En este trabajo se describe el problema de plagio en documentos digitales, y se exploran diferentes técnicas utilizadas para detectar tales casos de copia haciendo uso de teoría de recuperación de información y modelos de procesamiento de lenguaje natural. A continuación se propone un nuevo algoritmo, que analiza un texto usando características lingüísticas del mismo, donde se modela el estilo de escritura presente en busca de anomalías, donde estas últimas pueden indicar la participación de más de un autor. El objetivo principal de esta tesis es el estudio de la mencionada aproximación al problema, comparando su eficiencia y eficacia con otras técnicas existentes y evalu andolo en el marco de una competición internacional en el área. Mediante el acto de plagiar uno incurre en una falta ética donde el autor original no recibe los créditos correspondientes. En el caso de documentos escritos, uno puede incurrir en esta falta incluyendo fragmentos sin las citas adecuadas, utilizando las mismas ideas, o copiando el texto en su totalidad. Ahora bien, con el auge del uso de las tecnologias de información, como Internet, una gran cantidad de información de fácil acceso se encuentra disponible, siendo constantemente actualizada con generación de nuevos contenidos. Este fenómeno permite al plagio ser llevado a cabo con mayor facilidad y presenta una opción más tentativa a los estudiantes. La detección de dichos casos de plagio es compleja, principalmente debido a las prácticamentes infinitas fuentes de información. Es por ello que sistemas automáticos de detección son necesarios, mecanismos que se basan en técnicas de procesamiento de lenguaje natural y algoritmos de secuenciamiento. Estas herramientas son habitualmente desarrolladas sobre técnicas de detección de patrones comunes, de recuperación de información y en la teoría de la información. El en campo de la detección automática de plagio, la aproximación habitual involucra la comparasión de documentos. Un documento sospechoso es comparado con la o las posibles fuentes, apuntando a detectar los segmentos potencialmente plagiados y sus fuentes respectivas. Esta aproximación se denomina "detección externa de plagio", y mientras provee las fuentes de la copia, depende fuertemente de contar con las fuentes posibles a disposición. Este hecho es de vital importancia, donde la fuente ideal de búsqueda es la Web, pero tener acceso a ella en su totalidad se encuentra lejos de ser algo práctico. En años recientes una nueva forma de atacar el problema se ha introducido. Consisteen analizar el estilo de escritura presente en un documento, y determinar segmentos cuyo estilo sea considerablemente distinto del estilo general. Si se asume que un documento fue escrito por un autor, y que el estilo del autor permanece estable, variaciones importantes del mismo podrían indicar a otro autor involucrado. El objetivo principal de esta tesis fue diseñar e implementar un método que modele y cuantfique el estilo de escritura. El modelo fue construido para detectar desviaciones en el estilo de los documentos, otorgando un punto de partida para inferir casos de plagio. La propuesta se basa en la teoría de que diferentes autores poseen diferentes preferencias sobre el uso de palabras. En este sentido, la propuesta se basa en la cuantificación de las diferencias de las frecuencias de las palabras de todos los segmentos de un documento. Se evalúa el desempeño de la propuesta en un workshop y competición internacional del área, PAN@CLEF, donde se determina su eficacia y eficiencia. Los resultados son mixtos. Mientras que la propuesta alcanza los mejores resultados en las categorías de puntaje general y de precisión, obteniendo el primer lugar en la competición, los puntajes en general son bajos: una precisión de 0.3 refleja lo inmaduros que están aun los avances en el área. Por otro lado, se puede decir con seguridad que el uso de palabras representa una característica importante para analizar el estilo de escritura. Finalmente, los experimentos fueron realizados para el idioma Inglés, pero el método no utiliza catacterísticas propias del lenguaje, lo cual permite que el método sea estudiado con otros lenguajes.
27

Modelo neurofisiológico para la difusión de información en redes sociales

Cleveland Ortega, Pablo Andre January 2018 (has links)
Magíster en Gestión de Operaciones / El creciente uso de los servicios de Internet, particularmente de las redes sociales (OSN) ha generado una gran oportunidad para entender mejor el comportamiento de los usuarios como también de los flujos de información. A pesar de que la modelación de los flujos de información no es un tema nuevo, sí es de mucha dificultad y gracias a la aparición de OSNs y comunidades virtuales de práctica (VCoPs) es que ha resurgido como tema, gracias a la disponibilidad de data. Sin embargo, la mayoría si no todos los estudios revisado solo modelan a un nivel macroscópico, donde los grandes números absorben comportamientos indeseados y así se reportan buenos resultados. Nuestra hipótesis es que es posible modelar la difusión de información a nivel microscópico mediante un modelo derivado de la neurofisiología. El objetivo principal de este trabajo es desarrollar e implementar una metodología para predecir el intercambio de información entre usuarios a un nivel microscópico usando el contenido de texto mediante técnicas de Text Mining, con el _n de apoyar el proceso de administración de una VCoP. Para ello se propone una metodología que combina dos procesos Knowledge Discovery in Databases (KDD) y SNA y fue aplicada sobre una VCoP real llamada Plexilandia. En la etapa de KDD se efectuó la selección, limpieza y transformación de los posts de los usuarios, para luego aplicar una estrategia de reducción de contenido Latent Dirichlet Allocation (LDA), que permite describir cada post en términos de tópicos. En la etapa de SNA se aplicó un modelo neurofisiológico de toma de decisiones adaptado a preferencias de texto para predecir la formación de arcos entre hilos y usuarios usando la información obtenida en la etapa anterior. Los resultados de los experimentos muestran que es posible predecir con un alto porcentaje de éxito, 65 a 80% cuando hay poco ruido y 40 a 60% cuando existe elevado ruido, las interacciones entre usuarios basándose en la similaridad de los textos producidos por ellos. Esto permite vislumbrar la forma en que se difundirá un mensaje e identificar a usuarios que potencialmente estén interesados en un hilo.
28

Improving web multimedia information retrieval using social data

Bracamonte Nole, Teresa Jacqueline January 2018 (has links)
Tesis para optar al grado de Doctora en Ciencias, Mención Computación / Buscar contenido multimedia es una de las tareas más comunes que los usuarios realizan en la Web. Actualmente, los motores de búsqueda en la Web han mejorado la precisión de sus búsquedas de contenido multimedia y ahora brindan una mejor experiencia de usuarios. Sin embargo, estos motores aún no logran obtener resultados precisos para consultas que no son comunes, y consultas que se refieren a conceptos abstractos. En ambos escenarios, la razón principal es la falta de información preliminar. Esta tesis se enfoca en mejorar la recuperación de información multimedia en la Web usando datos generados a partir de la interacción entre usuarios y recursos multimedia. Para eso, se propone mejorar la recuperación de información multimedia desde dos perspectivas: (1) extrayendo conceptos relevantes a los recursos multimedia, y (2) mejorando las descripciones multimedia con datos generados por el usuario. En ambos casos, proponemos sistemas que funcionan independientemente del tipo de multimedia, y del idioma de los datos de entrada. En cuanto a la identificación de conceptos relacionados a objetos multimedia, desarrollamos un sistema que va desde los resultados de búsqueda específicos de la consulta hasta los conceptos detectados para dicha consulta. Nuestro enfoque demuestra que podemos aprovechar la vista parcial de una gran colección de documentos multimedia para detectar conceptos relevantes para una consulta determinada. Además, diseñamos una evaluación basada en usuarios que demuestra que nuestro algoritmo de detección de conceptos es más sólido que otros enfoques similares basados en detección de comunidades. Para mejorar la descripción multimedia, desarrollamos un sistema que combina contenido audio-visual de documentos multimedia con información de su contexto para mejorar y generar nuevas anotaciones para los documentos multimedia. Específicamente, extraemos datos de clicks de los registros de consultas y usamos las consultas como sustitutos para las anotaciones manuales. Tras una primera inspección, demostramos que las consultas proporcionan una descripción concisa de los documentos multimedia. El objetivo principal de esta tesis es demostrar la relevancia del contexto asociado a documentos multimedia para mejorar el proceso de recuperación de documentos multimedia en la Web. Además, mostramos que los grafos proporcionan una forma natural de modelar problemas multimedia. / Fondef D09I-1185, CONICYT-PCHA/Doctorado Nacional/2013-63130260, Apoyo a estadías corta de la Escuela de Postgrado de la U. de Chile, y el Núcleo Milenio CIWS
29

Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas

Saravia Estrada, Jacob Alejandro January 2011 (has links)
Ingeniero Civil Eléctrico / Un sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
30

Fusión de Múltiples Clasificadores en Verificación de Locutor

Huenupán Quinán, Fernando January 2010 (has links)
No description available.

Page generated in 0.112 seconds