• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1070
  • 96
  • 7
  • 1
  • Tagged with
  • 1175
  • 511
  • 342
  • 342
  • 342
  • 342
  • 342
  • 327
  • 308
  • 300
  • 258
  • 228
  • 168
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Representación de señales: aplicaciones de Wavelets y Compressive Sensing

Pavez Carvelli, Eduardo Hernán January 2013 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / En esta tesis se utilizan modelos de señales de la teoría de aproximación no lineal, específicamente la sparsidad y la compresibilidad. Una señal se denomina sparse si puede escribirse como combinación lineal de pocas funciones, y se denomina compresible si puede aproximarse precisamente mediante una señal sparse. El Capítulo 3 es un estudio experimental de nuevas definiciones de compresibilidad de secuencias aleatorias infinitas. Se muestran las conexiones entre dichos modelos y varios resultados de adquisición y reconstrucción de señales basados en la teoría de Compressive Sensing. Se verifican resultados teóricos que indican que la familia de distribuciones en el dominio de atracción de una ley alfa-estable son compresibles. Además se observa que, asintóticamente es posible muestrear y reconstruir dichas señales con tasa y error cero, utilizando técnicas de Compressive Sensing. En el Capítulo 4 se estudian las propiedades de compresibilidad de las transformadas wavelet y coseno discretas para la caracterización de canales de permeabilidad. Luego se utilizan dichas bases para estimar la permeabilidad efectiva a partir de canales de permeabilidad aproximados. Se muestra en esta sección que se preserva la permeabilidad efectiva salvo un término de sesgo que depende del nivel de aproximación considerado. Finalmente se aplica adquisición y reconstrucción de canales de permeabilidad con Compressive Sensing, bajo el supuesto de compresibilidad en DCT y Wavelet de Haar, donde se pueden identificar regímenes donde domina una u otra base.
12

Correlato corporal del procesamiento semántico: N400, actividad periférica y muscular automática

Díaz Cartes, Pedro 08 1900 (has links)
Doctor en Psicología / En cuanto al análisis del procesamiento semántico en Ciencias Cognitivas, existe un conjunto de hipótesis denominada symbol grounding que plantea que símbolos y conceptos en la mente emergen de acciones y capacidades sensoriomotrices, perceptuales y emocionales. Siguiendo esta idea en la presente tesis se utilizaron frases con un final coherente e incoherente respecto a su contexto, enmarcadas en el procesamiento de violación de expectativas semánticas y su potencial electroencefalográfico asociado – N400 – y se verificó si generaban activaciones corporales periféricas – conductancia eléctrica de la piel – o musculares faciales automáticas – cigomático major y corrugator supercilii – buscando a su vez establecer si estas activaciones pueden ser consideradas como emocionales en las dimensiones aversivo – apetitivo o intenso – relajado de la teoría bifásica de las emociones. Los resultados muestran una mayor actividad ante frases con un final incoherente en el músculo corrugator supercilii y cigomático major desde los 500 y 600 ms. respectivamente, y en la conductancia eléctrica de la piel entre los 0 y 5 segundos, lo que configura una reacción emocional de tipo aversiva e intensa
13

Segmentación automática de textos, mediante redes neuronales convolucionales en imágenes documentos históricos

Ascarza Mendoza, Franco Javier 28 November 2018 (has links)
Los manuscritos históricos contienen valiosa información, en los últimos años se han realizado esfuerzos para digitalizar dicha información y ponerla al alcance de la comunidad científica y público en general a través de imágenes en bibliotecas virtuales y repositorios digitales. Sin embargo, existen documentos y manuscritos históricos escritos en un lenguaje extinto en la actualidad y una cantidad limitada de profesionales expertos en la interpretación y análisis de dichos documentos. Las imágenes de los documentos y manuscritos históricos poseen características particulares producto precisamente de su antigüedad como por ejemplo: La degradación del papel, el desvanecimiento de la tinta, la variabilidad en iluminación y textura, entre otros. Tareas como recuperación de información o traducción automática de imágenes de manuscritos históricos requieren una etapa de pre-procesamiento importante debido a las características mencionadas en el párrafo anterior. Entre las tareas de pre-procesamiento se puede mencionar la binarización y la segmentación de la imagen en regiones de interés. La presente tesis se enfoca en el procedimiento de segmentación en regiones de interés de las imágenes de manuscritos históricos. Existen métodos para segmentar imágenes de documentos históricos basados fundamentalmente en la extracción manual de características con previo conocimiento del dominio. La finalidad de la presente tesis es desarrollar un modelo general que automáticamente aprenda a extraer características de los pixeles de las imágenes de los documentos históricos y utilizar dichas características para clasificar los pixeles en las clases que previamente se definirán. / Tesis
14

Procesamiento paralelo distribuído heterogéneo aplicado a ingeniería de procesos

Vazquez, Gustavo E. 18 December 2010 (has links)
El objetivo de esta tesis ha sido diseñar nuevas estrategias de procesamiento paralelo en entornos de cómputo distribuido heterogéneo para facilitar la resolución de problemas tanto estructurales como numéricos del campo de la ingeniería de procesos. Como resultado de estas investigaciones se ha logrado el desarrollo de técnicas robustas y eficientes aplica-bles a un amplio espectro de problemas de búsquedas en gra-fos y de optimización con función objetivo y restricciones no lineales. En términos generales, es posible distinguir dos líneas de investigación para el desarrollo de algoritmos paralelos dis-tribuidos: la paralelización de algoritmos secuenciales existen-tes y la creación de alternativas intrínsecamente paralelas. En el caso de problemas estructurales, se estudiaron los métodos secuenciales clásicos de búsqueda en grafos y se establecie-ron las limitaciones para su uso en redes de estaciones de tra-bajo. Sobre esta base se propuso un nuevo método de distri-bución semi-dinámica y se la aplicó al algoritmo GS-FLCN para análisis de observabilidad. Por otra parte, en la línea de los algoritmos intrínsecamente paralelos se desarrolló un nuevo algoritmo de búsqueda totalmente distribuido con el objeto de aumentar la eficiencia de los recorridos para esta aplicación específica. En cuanto a los problemas numéricos, se conside-raron estrategias para aplicar el paralelismo a las secciones de cómputo intensivo de algoritmos secuenciales existentes para optimización no lineal con restricciones conocidos como GRG y SQP. Asimismo se desarrolló una nueva técnica de descompo-sición de dominio con el objeto de ampliar el rango de aplica-bilidad de un algoritmo intrínsecamente paralelo concebido originalmente para problemas sin restricciones de modo que se lo pudiera utilizar en forma eficiente para el tratamiento de los problemas de optimización no lineal con restricciones que sur-gen en ingeniería de procesos. En cuanto a las verificaciones de desempeño, se adaptaron las métricas de speedup con el objeto de tener en cuenta la heterogeneidad de los procesa-dores y así poder asegurar comparaciones justas. En tal senti-do, todos los nuevos algoritmos propuestos lograron un muy buen desempeño en cuanto al tiempo de ejecución en compa-ración con los algoritmos secuenciales correspondientes. Se analizaron casos de estudio académicos y problemas industria-les reales de mediano y gran tamaño pertenecientes al área de ingeniería de procesos. Por último, cabe destacar que los beneficios derivados de las propuestas descriptas en esta te-sis doctoral no se limitan al ámbito de ingeniería de proce-sos. Tanto las búsquedas en grafos como los problemas de optimi-zación surgen naturalmente en otras ramas de la inge-niería así como también en biología, economía, etc. No solo es fac-tible emplear en otras disciplinas los mismos algoritmos sino también aplicar la filosofía subyacente, tal como el criterio de descomposición de dominio o la distribución semidinámica de carga.
15

Estudio de Técnicas de Selección de Bancos de Filtros Inducidos por Wavelet Packets para Extracción de Características en Reconocimiento de Voz

Pavez Carvelli, Eduardo Hernán January 2011 (has links)
En procesamiento de señales y reconocimiento de voz, uno de los principales tópicos es la extracción de características. Dada una señal digitalizada esta se transforma a una más compacta de acuerdo a algún criterio dependiente del problema. Por ejemplo, la voz es extremadamente redundante, y contiene información de múltiples fuentes como identidad del locutor, estado emocional y secuencia fonética. En reconocimiento de voz, se desea extraer características que preserven la discriminabilidad entre unidades acústicas pero tengan menor dimensión que la señal original. En esta memoria se estudiarán metodologías de extracción de características para reconocimiento de voz utilizando criterios de discriminabilidad entre unidades fonéticas. Como punto de partida se considerará la técnica de extracción de características MFCC utilizada en los reconocedores estándar y con ellas se entrenará un reconocedor con el software HTK para la base de datos TIMIT. Los MFCC se implementan con bancos de filtros; usando esa motivación y aprovechando la gran colección de formas de representar señales que permite la transformada Wavelet Packet (WP), se propuso un método de selección de bancos de filtros WP considerando discriminación entre unidades acústicas. La memoria se centrará en aplicar esta metodología y las soluciones que esta entrega para proponer una alternativa a los MFCCs. La forma de evaluar los rendimientos de los distintos métodos será mediante el porcentaje de reconocimiento fonético en un subconjunto de test de TIMIT. La parte teórica del trabajo consiste en estudiar propiedades y formas de aplicar los WP, y como se construyen los sistemas de reconocimiento fonético. En la práctica, en implementar la transformada WP y los WPCC en C++, implementar reconocedores fonéticos en el software HTK, y unir todos estos bloques usando el lenguaje PERL, para correr experimentos en distintos escenarios. El aporte de este trabajo son las características Wavelet Packet Cepstral Coefficients (WPCC), se estipulan criterios concretos de diseño para los bancos de filtros WP, con el objetivo de obtener la mayor información para discriminar fonemas. Los WP obtenidos tienen alta selectividad en frecuencia y una estructura que privilegia la resolución en bajas frecuencias principalmente el rango [200Hz-1000Hz] del espectro acústico.
16

Programación de alto desempeño del filtro C-MACE en una unidad de procesamiento gráfico

Baeza Martínez, Daniel Oscar January 2013 (has links)
Ingeniero Civil Electricista / En el presente trabajo de memoria se realiza una implementación del filtro CMACE (Correntropy- Minimum Average Correlation Energy) en una Unidad de Procesamiento Gráfico o GPU (Graphics Pro- cessor Unit), con el objetivo de reducir los costos computacionales asociados con la ejecución de este filtro. Los grandes tiempos de espera que tiene el filtro CMACE en su implementación en serie hace que esta herramienta sea poco práctica en la gran mayoría de los problemas de clasificación y reconocimiento de imágenes. La reducción de los costos computacionales mediante la implementación en GPU del fil- tro CMACE pretende hacer de este filtro una herramienta mucho más útil en problemas de ingeniería orientados al procesamiento de imágenes. La supercomputación mediante GPU está haciendo posible usar herramientas computacionalmente costosas en tiempos mucho más reducidos sin sacrificar las cualidades de los algoritmos. La implementación se realiza en una tarjeta Nvidia Tesla C2050, utilizando el lenguajes de progra- mación C y la extensión CUDA hecha por Nvidia para la programación de GPU. La implementación final del filtro es híbrida, en donde se mezclan implementaciones en GPU y CPU para aprovechar las características de cada uno de estos dispositivos en distintos tipos de procesamiento de datos. Además de la implementación, de realizan comparaciones de desempeño frente a las implementaciones tradicionales en CPU y pruebas de validación para ver el poder de clasificación que tiene el filtro CMACE. Además se realizan pruebas con preprocesamiento de las imágenes mediante una reducción dimensional.,con el fin de reducir la carga de los procesos que tienen los dispositivos. Los resultados obtenidos en la implementación del filtro CMACE en GPU muestran que esta imple- mentación es 16 veces más rápida que la implementación tradicional en CPU . En conclusión, la GPU da una solución a los tiempos de espera que se tienen en el uso del filtro CMACE, haciendo de este filtro una herramienta mucho más útil y práctica.
17

Implementación de un algoritmo para la localización de la voz de un orador en un plano tomando como punto de referencia el nivel máximo de su patrón de radiación

Pinto Valdiviezo, David Fernando 09 November 2011 (has links)
Actualmente se vive en un mundo competitivo donde el conocimiento de las nuevas tecnologías y tendencias se ha convertido en la herramienta más poderosa. Las personas acuden más frecuentemente a todo tipo de conferencias y exposiciones para enterarse de los últimos avances e investigaciones en los campos que a cada uno le conciernen. Este tipo de eventos tienen lugar dentro de salas de conferencias o auditorios los cuales han sido diseñados para brindar la mejor infraestructura y acústica posible para el público usuario. Sin embargo no se ha logrado controlar los altibajos de niveles de presión sonora del micrófono del expositor producido por los movimientos naturales de su cabeza, lo cual genera problemas de inteligibilidad y distracción en el público. El objetivo de la presente tesis es localizar la dirección de mayor intensidad de la voz de un orador respecto a un punto como parte de un proyecto que pretende ecualizar un micrófono para lograr en la medida de lo posible un mismo nivel y grado de inteligibilidad durante una exposición hablada que solucione el problema antes mencionado. En el primer capítulo, se muestra información teórica sobre la voz humana y los micrófonos, puesto que es sumamente importante conocer la fuente y el receptor de señales y cómo es que interaccionan entre sí. En el segundo capítulo, se describe el marco problemático y los posibles métodos de localización para resolver el problema, además se encuentra la investigación realizada de los últimos avances en localización sonora. En el tercer capítulo, se define el método a emplear y el diseño del algoritmo que toma en cuenta los requerimientos del método y las características de la voz humana. En el cuarto capítulo se muestran los resultados de la implementación del diseño basándose en las pruebas realizadas y el costo del proyecto. Finalmente se presentan las conclusiones, las cuales muestran que se cumplieron con los objetivos planteados y se dan algunas recomendaciones para futuras investigaciones sobre el proyecto. / Tesis
18

Localización de una fuente de sonido usando un pequeño arreglo de micrófonos

Arrieta Vera, Gustavo 09 May 2011 (has links)
La localización de fuentes de sonido forma parte del procesamiento digital con arreglos de sensores empleando conceptos importantes como solapamiento espacial, teoría de señales aleatorias y estimación espectral de potencia, entre otros. Los métodos escogidos en este proyecto son la correlación cruzada en el dominio del tiempo, Beamforming (filtraje espacial) y MUSIC (Multiple Signal Clasification) en el dominio de la frecuencia. Presentando un mayor grado de exactitud y complejidad según el mismo orden en que se los menciona. / Tesis
19

Sistema en tiempo real de detección y seguimiento de objetos esféricos en videos digitales

Tafur Tafur, José Elvis 23 March 2016 (has links)
En la actualidad, el desarrollo de sistemas que permitan la interacción ser humano - computador es un tema que es ampliamente abordado en diversas campos. Dispositivos tales como el Iphone, Ipad, la Samsung Galaxy Tab, entre otros, poseen aplicaciones de uso sencillo e intuitivo, brindando al usuario una experiencia de mayor realismo. Algunas de las aplicaciones más exitosas se dan en el sector del entretenimiento: El XBox 360, Nintendo Wii, Play Station 3 y 4 con sus diversos accesorios (cámaras, controladores, etc.) ofrecen juegos que interactuan con el ser humano en tiempo real. En medio de este contexto y conociendo del interés que existe por la investigación y desarrollo de sistemas en visión por computador, en la presente tesis se muestra el desarrollo de un sistema que permite la interacción ser humano - computador. Este sistema permite la detección y seguimiento de un objeto esférico en tiempo real, esto a través de una interfaz en la cual el usuario puede percibir el seguimiento de una esfera y cuyos movimientos son captados por una cámara de video. El planteamiento de la solución está inspirado en el sistema Play Station Move, el cual permite el seguimiento de una esfera ubicada en un controlador de movimiento, brindando al usuario una mayor sensación de realismo y control de las acciones realizadas. No obstante, y a diferencia del sistema desarrollado por Play Station, el presente estudio no hace uso de acelerómetros para el seguimiento planteado. El sistema a desarrollar opera bajo condiciones de precisión y tiempo de procesamiento que permite una interacción aceptable con el usuario, y se centra en el desarrollo e implementación de algoritmos matemáticos (en lenguaje C) en tiempo real que permiten la detección y seguimiento del objeto esférico. Para la interfaz computador - cámara de video se utiliza una librería ya existente, previamente desarrollada en el laboratorio de DSP, la cual a su vez está basada en la librería ffmpeg. / Tesis
20

Sistema de adquisición de datos de un radar de onda continua en frecuencia modulada montado en un vehículo aéreo no tripulado

Caballero Cardenas, Diego Alberto 16 June 2017 (has links)
El trabajo desarrollado en la presente tesis consiste en diseñar un sistema de adquisición de datos de un radar de onda continua en frecuencia modulada y montarlo en un UAV (vehículo aéreo no tripulado), con la finalidad de simular un radar de apertura sintética. En el capítulo 1 nos enfocaremos en introducir los sistemas de radar de apertura sintética, analizaremos su importancia, ventajas, desventajas y limitaciones que existen hoy en día. En el capítulo 2 nos enfocaremos en el radar utilizado describiendo el diseño implementado, su funcionamiento y las etapas que integra todo el proyecto, haciendo hincapié en el sistema de adquisición de datos y almacenamiento. En el capítulo 3 se explica el desarrollo del proyecto del sistema de radar de onda continua en frecuencia modulada, se añade el sistema de adquisición de datos y almacenamiento. Finalmente se detalla el proceso de montado en el vehículo aéreo no tripulado con la finalidad de adquirir los datos en vuelo. En el capítulo 4 se muestran las pruebas y los resultados obtenidos del sistema de adquisición de datos tanto en tierra como en aire. Las pruebas en tierra servirán para validar que el sistema de adquisición funciona correctamente, ya que se tiene un procesamiento para el radar estático donde se mide la distancia que recorre un objeto en movimiento. Las pruebas en vuelo nos servirán para validar que el chasis elaborado fue capaz de ser montado en el UAV con la mayor estabilidad posible. Finalmente se plantean las conclusiones y opciones de mejora de la presente tesis. / Tesis

Page generated in 0.0639 seconds