• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Percepción y Procesamiento de Contrastes Vocálicos en Bilingües Español/Inglés

Casillas, Joseph Vincent January 2012 (has links)
La presente tesina examina los efectos que tienen la edad de adquisición de una segunda lengua y su frecuencia de uso sobre las capacidades productivas y perceptivas en la L2. Para ello, tres grupos (bilingües tardíos, bilingües tempranos y monolingües) participaron en experimentos de producción, percepción (identificación y discriminación) y acceso léxico. A diferencia de las investigaciones previas acerca de la producción y pro- cesamiento en una L2, los bilingües tempranos del presente estudio son dominantes en su L2, el inglés. Concretamente, se demuestra que los bilingües tempranos difieren del grupo monolingüe en su producción y percepción de los contrastes vocálicos /i/ - /E/, /a/ - /æ/ y /i/ - /I/ del inglés. Asimismo, se afirma que los bilingües tempranos difieren del grupo monolingüe en su procesamiento léxico. Los resultados sugieren que, incluso para bilingües dominantes en su L2, estar expuesto a una edad temprana no garantiza la obtención de capacidades de producción, percepción ni acceso léxico a nivel de nativo.
62

Early detection of high volatility clusters using particle filters

Mundnich Batic, Karel Bogomir January 2013 (has links)
Ingeniero Civil Electricista / El presente trabajo explora y analiza el uso de herramientas de procesamiento de señales que son comunes en áreas de Ingeniería Eléctrica y Pronóstico y Gestión de Salud en el análisis de series de tiempo financieras. El objetivo principal de este trabajo es detectar eventos de alto riesgo en una etapa temprana. De esta forma, el algoritmo propuesto emplea la fuerte relación entre volatilidad y riesgo y detecta clusters de alta volatilidad mediante el uso de la información obtenida de los procesos de estimación a través de Filtro de Partículas. Para alcanzar el objetivo mencionado, se utiliza la representación de espacio-estado estocástica uGARCH para modelar la volatilidad de retornos compuestos continuamente. Dada la no-observabilidad de la volatilidad, se implementan dos esquemas de Filtro de Partículas para su estimación: los enfoques clásico y sensible al riesgo. Este último incluye el uso de una Distribución de Pareto Generalizada como propuesta para el funcional de riesgo (y distribución de importancia) para asegurar la asignación de partículas en regiones del espacio-estado que están asociadas a variaciones rápidas de volatilidad del sistema. Para evaluar correctamente el rendimiento de las rutinas de filtrado, se han generado seis conjuntos de datos, donde ambos el estado y las mediciones son conocidas. Además, se ha realizado un análisis de sensibilidad sobre los seis conjuntos de datos, para así obtener los parámetros que permiten la mejor estimación de volatilidad. De estos resultados, se calculan valores promedios de parámetros que son luego utilizados en el esquema de detección. La etapa de detección explora tres diferentes técnicas. Primero, se propone la utilización de un test de hipótesis entre las estimaciones a priori y a posteriori de las distribuciones de probabilidad del Filtro de Partículas Sensible al Riesgo. Segundo, se utiliza el Discriminante de Fisher para comparar las estimaciones a posteriori de las densidades entre el Filtro de Partículas Clásico y el Sensible al Riesgo. Finalmente, se utiliza la Divergencia de Kullback-Leibler de la misma forma que el Discriminante de Fisher. Los algoritmos propuestos son probados en los datos generados artificialmente y en datos de acciones de IBM. Los resultados demuestran que el Filtro de Partículas Sensible al Riesgo propuesto supera la precisión del Filtro de Partículas en momentos de alzas no esperadas de volatilidad. Por otra parte, el test de hipótesis empleado en el proceso de filtrado sensible al riesgo detecta correctamente la mayoría de las alzas repentinas de volatilidad que conducen a la detección temprana de clusters de alta volatilidad. Finalmente, los algoritmos de detección propuestos basados en Discriminante de Fisher y Divergencia de Kullback-Leibler llevan a resultados donde la detección no es posible.
63

Interfaz humano máquina controlada por gestos

Escalona Neira, Ismael Fernando January 2014 (has links)
Ingeniero Civil Eléctrico / El lenguaje corporal es importante para comunicarse fluidamente con las personas. En el ámbito de la interacción con máquinas, existen sistemas para reconocer automáticamente gestos, pero confunden cuerpos de color similar y sus capacidades son muy inferiores a las de los seres humanos. Para contribuir a la solución de este problema, se presenta una plataforma que sigue una esquina e identifica pulsaciones utilizando una webcam, independientemente del tono del objeto y del fondo, lo que se efectúa analizando variaciones luminosas. El sistema registra imágenes con una cámara y las preprocesa para disminuir el ruido. Posteriormente, obtiene las zonas con cambios luminosos y reconstruye los objetos móviles. Luego, identifica las esquinas de los cuerpos, sigue la trayectoria de una de ellas y verifica si hay oscilaciones. La plataforma es complementada con módulos para configurar su funcionamiento, dibujar trayectorias y controlar un cursor. La programación se realiza en C++ y utiliza las librerías OpenCV para procesar imágenes y Qt para mostrar la interfaz de usuario. El desempeño se evalúa con videos en que un dedo recorre trayectorias predefinidas. En las pruebas se utilizan varios tipos de iluminación, fondos, distancias a la cámara, posturas y velocidades de movimiento. Los resultados muestran que el algoritmo ubica el dedo con error promedio de 10 píxeles y detecta pulsaciones en el 82% de los intentos. Se producen fallas cuando hay fuentes de luz frente a la cámara, oscuridad o movimiento detrás de la mano. El programa se ejecuta a 30fps y utiliza el 16% de un procesador Intel Core i5-3337u. La plataforma es capaz de distinguir objetos de tono similar, pero es poco tolerante a movimientos en el fondo. Una combinación de los métodos basados en variaciones luminosas y color puede corregir sus deficiencias mutuamente y habilitar aplicaciones que utilicen señales hechas con las manos para ordenadores personales y robots.
64

Implementación de un sistema reconocedor de eventos en videos, con un clasificador K-NN

Onofri Soto, Ranato Vicenzo January 2014 (has links)
Ingeniero Civil en Computación / Hoy en día el fácil acceso a la tecnología permite al ser humano registrar, con un mínimo esfuerzo, eventos de interés en su vida. Como consecuencia se genera una gran cantidad de información multimedia, en particular videos, cuyo análisis de contenido es muy difícil de automatizar, siendo deseable el uso de técnicas de minería de datos y visión computacional para aprovechar esta oportunidad. En este contexto, surge la inquietud de clasificar dichos objetos en base a los eventos presentes en ellos, y de esa forma generar una herramienta predictiva que pueda ser usada posteriormente en aplicaciones de diversas áreas, como por ejemplo, en la publicidad. El presente trabajo de título da cuenta de la implementación de un sistema reconocedor de eventos en video, además de la experimentación con el mismo, la posterior modificación de su componente de clasificación, y la comparación de ambas versiones en términos de eficacia. El tipo de datos que emplea el sistema corresponde a videos de consumidor, los que fueron recolectados por una comunidad científica y agrupados en un dataset de uso público. El sistema se basa en un reconocedor de eventos planteado en un artículo, y está formado por descriptores de características, un módulo de clasificación SVM y un módulo de creación de histogramas. La modificación planteada consiste en cambiar SVM por un clasificador K-NN. Para cumplir con los objetivos mencionados anteriormente, se sigue la implementación propuesta en el artículo, esto significa que, primero se descarga el dataset y se implementan los descriptores escogidos, posteriormente, se implementa el clasificador SVM y se compara el sistema preliminar con las mediciones de eficacia del artículo, se repite el proceso hasta obtener valores similares y considerar que el sistema ha sido ajustado correctamente. Finalmente, se implementa el módulo K-NN y se comparan ambos sistemas en base a las métricas de rendimiento. A partir de los resultados de eficacia de las dos versiones, se muestra que el clasificador SVM es una mejor alternativa que K-NN para enfrentar el problema de reconocimiento de eventos en videos de consumidor. Esto es válido para los descriptores con los que se probó el sistema, pero puede no ser cierto si se utiliza otro conjunto de descriptores. Además, se deja en evidencia la dificultad que presenta el manejo de grandes volúmenes de información, y la necesidad de soluciones para su procesamiento.
65

Diseño e implementación de un espectrómetro basado en FPGA, de ancho de banda seleccionable para aplicaciones astronómicas

Huaracán Durán, Edgardo Antonio January 2014 (has links)
Ingeniero Civil Eléctrico / El auge que ha presentado en los últimos años la Astronomía observacional en Chile, producto de las inigualables condiciones ambientales del desierto de Atacama, ha generado la necesidad de desarrollar tecnologías afines con este gran desafío. Este trabajo propone soluciones en el área de procesamiento digital de señales haciendo uso de procesadores de alta velocidad. En concreto, se diseña e implementa un espectrómetro de ancho de banda seleccionable para aplicaciones en espectrometría de alta resolución como lo es el estudio de estructuras moleculares híper finas. Además se diseña un bloque de control de datos, útil entre otras cosas para mejorar las mediciones de rechazo de banda lateral. El uso de procesadores FPGA (Field Programmable Gate Array) permite implementar espectrómetros digitales. Estos diseños son aplicables en procesadores cada vez más veloces. Existen arquitecturas prediseñadas para estos propósitos como por ejemplo la plataforma ROACH (Reconfigurale Open Architecture Computing Hardware) creada por CASPER (Collaboration for Astronomy Signal Processing and Electronic Research) y que se utiliza en este trabajo de título. Utilizando diseños en ambiente MATLAB Simulink se crea un ejecutable que da instrucciones al FPGA. Así, estos diseños son controlados y comandados por códigos en lenguaje Python, los que realizan un post procesamiento de los datos para su posterior análisis. Los diseños creados para mejorar el rechazo de banda lateral demuestran ser efectivos limitando la contaminación de banda adyacente a menos de -50dB. El bloque de control asegura el buen funcionamiento del sistema, incluso en presencia de alto ruido de fase. Por otro lado al realizar acercamiento a una porción del ancho de banda se logra una mejor resolución espectral logrando distinguir variaciones de energía en rangos pequeños de frecuencia. A futuro, todos los diseños creados en este trabajo pueden implementarse a mayor velocidad, utilizando procesadores más avanzados. Es posible enriquecer el zoom, reduciendo el ancho de banda desde dos hasta ocho veces, y utilizar mezcladores digitales para seleccionar una zona arbitraria del espectro.
66

Diseño e implementación de un espectrómetro de alta resolución basado en FPGA para análisis de señales radioastronómico

Sapunar Opazo, Raúl Ignacio January 2015 (has links)
Ingeniero Civil Eléctrico / Un espectrómetro de alta resolución se usa en radioastronomía para observar espectros de nubes moleculares de dinámica compleja con un amplio rango de velocidades. Dicho instrumento corresponde a un tipo de Back End, el cual es el último componente electrónico de la cadena en un radiotelescopio y está encargado de procesar la señal proveniente de las fuentes astronómicas para obtener la información deseada. El estado del arte en esta materia consiste en utilizar técnicas digitales para procesar los datos, debido a la estabilidad de las mediciones y buen rendimiento que estas permiten. En este trabajo se presenta el diseño e implementación de un espectrómetro digital de transformada de Fourier rápida (FFT), de alta resolución espectral, utilizando una plataforma ROACH 2, la cual está basada en un chip FPGA (Field Programmable Gate Array) y está equipada con ADCs (Analog-to-digital coverters) de alta velocidad. Como metodología de diseño, se propone maximizar el uso de recursos del hardware para obtener el mayor número de canales espectrales posibles para un ancho de banda no menor a 1,5 GHz, manteniendo un alto rango dinámico. Para lograr el correcto funcionamiento del espectrómetro a altas velocidades se aplicaron técnicas de localización física de recursos (floorplanning) en el FPGA. Se presenta también una metodología de calibración de los ADCs, los cuales poseen cuatro núcleos que en conjunto muestrean a una tasa máxima de 5 GSps. El mejor desempeño se obtuvo con un espectrómetro de 1,8 GHz y 32768 canales, es decir con una resolución espectral de 54,9 kHz. Éste posee un rango dinámico libre de espurios (SFDR) superior a 42 dB en toda la banda con caídas a 39 dB en frecuencias puntuales. El aumento de resolución espectral se ve limitado principalmente por problemas de sincronización (timing) en el circuito y por la cantidad de memoria disponible. Como trabajo futuro se propone explorar distintas técnicas para optimizar el uso de recursos del FPGA y así aumentar aún más la resolución espectral del espectrómetro. Ejemplos de estas técnicas son modificaciones de diseño que permitan el uso eficiente de memorias y la reducción de operaciones matemáticas necesarias. También se presenta un cambio mayor en el diseño del espectrómetro, el cual implementa una forma distinta para calcular la FFT y permitiría reducir enormemente el número de memorias utilizadas por esta, logrando llegar a 1 millón de canales espectrales.
67

Diseño de un sistema de información para mejorar la eficiencia en la planificación y control de los procesos productivos de una empresa del piping

Olguín Toledo, Hugo Andrés January 2015 (has links)
Ingeniero Civil Industrial / El presente Proyecto de Título fue realizado en la empresa FASTPACK S.A., especializada en la fabricación, suministro y distribución de productos y servicios asociados a la industria del piping (soluciones en distintos tipos de acero para la conformación de redes de tuberías para faenas y plantas). Una de las complejidades de esta industria, en conjunto con el proceso de fabricación mismo, es que las empresas clientes exigen la trazabilidad de la pieza durante todo su ciclo de vida. Adicionalmente, no existen soluciones en el mercado de software para abordar satisfactoriamente todas las aristas de dicha gestión, lo cual involucró el diseño de un software a medida. Dicha decisión se justificó en base al análisis de distintos tipos de sistemas de información disponibles en el mercado y en base a la generación de un estudio del estado del arte de la industria. Este proyecto se justifica en la necesidad por parte de la compañía de mejorar la eficiencia en el control de su producción, en base a la gestión de la información generada a través de sus procesos productivos. Como antecedente de lo anterior, alrededor del 40% de los costos totales para el año 2013 que asumió la compañía se debió a reprocesos y en cancelaciones de multas por incumplimiento de plazos de entrega. Este trabajo comprendió el modelamiento y análisis de los procesos productivos de la empresa, sumado al análisis del actual sistema de información inserto en determinadas actividades del ciclo de producción, en base a una elección previa de una metodología que justificó este procedimiento. Posterior a dicha etapa se llevó a cabo el proceso de análisis y levantamiento de los requerimientos críticos para la mejora del actual sistema de control de producción de la empresa, en conjunto con un equipo multidisciplinario de rediseño conocido como Spool Machine. Es así como finalmente se dio forma a la propuesta final de rediseño del sistema de información inserto en el ciclo de producción, en base a un análisis técnico sobre el tipo de sistema a implementar, considerando en todo momento los requerimientos de los usuarios, justificando a su vez el modelo de sistema más adecuado para la empresa. En conjunto con la elección de la alternativa más conveniente para la compañía, en términos económicos y funcionales, se realizó una valorización que arrojó una recuperación de la inversión inicial en menos de seis meses, permitiendo a la vez una cifra estimada de disminución en los tiempos de operación cercanos a un 42%. De manera paralela, se desarrolló un plan de implementación de manera tal de considerar todos los factores críticos de éxito para una efectiva implementación y puesta en marcha del nuevo sistema.
68

Algunos resultados teóricos y numéricos en procesamiento de imágenes digitales

Godoy Campbell, Matías Maximiliano January 2013 (has links)
Ingeniero Civil Matemático / El objetivo principal del presente trabajo es el estudio, tanto teórico como numérico, de métodos de procesamiento de imágenes orientados al área de las señales e imágenes con texturas. Se comienza con una revisión de conceptos básicos tanto en procesamiento de imágenes, como en herramientas matemáticas de interés, se exploran trabajos previos que motivan buena parte de esta memoria. En particular los trabajos de filtros no locales, formulados por Buades en 2005 y los funcionales no locales del tipo Mumford-Shah, formulados por Jung et al. en 2011, además de varios trabajos clásicos del área del cálculo de variaciones ligados al procesamiento de imágenes. Más adelante, se explora en detalle el problema de segmentación, estableciendo una definición concreta y ejemplos de aplicación, presentando luego el funcional de Mumford-Shah. Se analiza la limitación de este funcional desde el punto de vista numérico para realizar segmentación y por esto se introduce el funcional de Ambrosio-Tortorelli, donde destacan sus resultados más importantes, en particular la $\Gamma$-convergencia al funcional de Mumford-Shah relajado. Como desarrollo central, se trabajó el problema de segmentación no local, considerando el funcional planteando por Jung et al. en 2011. Se prueba que en el caso unidimensional el funcional no es adecuado en el sentido del Gamma-límite obtenido, el cual no penaliza el conjunto de discontinuidades de la señal u. A partir de esto, se propone un funcional modificado que, bajo ciertas suposiciones sobre la función de peso no local w(x,y), permite obtener un término que es equivalente como semi-norma a la semi-norma de Slobodeckij, lo que implica que el funcional quede definido en el espacio H^s\times H^1, donde H^s es el espacio de Sobolev fraccionario con s en (1/2,1). Se prueba rigurosamente la Gamma-convergencia a un funcional que se puede interpretar como el funcional de Mumford-Shah relajado con gradiente no local. Este resultado es relevante porque en este caso el Gamma-límite sí penaliza el conjunto de discontinuidades de la señal u, que es el comportamiento deseado para estos funcionales. A continuación, se exponen las llamadas funciones de Gabor generalizadas, para ser utilizadas en la aproximación de una señal, utilizándose como ejemplo las splines exponenciales (complejas), que corresponden a funciones trigonométricas con soporte compacto, permitiendo aproximar una señal en diferentes niveles de resolución. Finalmente, se presenta la implementación numérica de los modelos considerados, partiendo por filtros no locales, modelos de segmentación local y no local, y concluyendo con la aproximación por splines exponenciales. Se exponen simulaciones numéricas que permiten comparar diversos métodos además de explorar las ventajas y limitaciones de cada método en particular, concluyendo que existe evidencia de que estos métodos efectivamente permiten mejorar el análisis de señales e imágenes que contienen texturas.
69

Reconocimiento robusto de rostros usando imágenes térmicas

Hermosilla Vigneau, Gabriel Enrique January 2012 (has links)
Doctor en Ingeniería Eléctrica / El principal objetivo de este trabajo de tesis es el estudio del reconocimiento de rostros en el espectro térmico (8-12 µm). Como parte de este estudio se analizan y comparan el desempeño de métodos y algoritmos de reconocimiento de rostros en el espectro térmico. También, se propone una metodología para desarrollar robustamente el reconocimiento de rostros térmicos, y se analiza cómo el reconocimiento de rostros térmicos se ve afectado por los cambios que sufren las imágenes térmicas cuando son capturadas en diferentes periodos de tiempo debido a cambios en el metabolismo y condiciones ambientales. Los métodos de reconocimiento de rostros fueron seleccionados por el desempeño obtenido en otros estudios comparativos, trabajar en tiempo real, requerir sólo una imagen por sujeto y operar en línea. El estudio analiza 3 métodos basados en calces locales: Histogramas LBP, Histogramas WLD y Descriptores Jets de Gabor, y 2 métodos basados en calces globales: el método SIFT y SURF. Los métodos son comparados utilizando la base de datos creada UCHThermalFace, que permite evaluar los métodos en condiciones reales ya que incluyen variaciones naturales de iluminación, imágenes capturas en interior y exterior, expresiones faciales, pose, accesorios y oclusión. Se analiza el uso de las características vasculares del rostro, que pueden ser obtenidas utilizando una cámara térmica. Se propone una metodología basada en el uso combinado de características fisiológicas de la red vascular del rostro humano y la intensidad de los pixeles del rostro térmico, metodología llamada VascularThermalFace. Además, se aborda un estudio de reconocimiento de rostros cuando existe diferencia temporal en la adquisición de las imágenes térmicas. Se crearon y analizaron 2 bases de datos llamadas UCHThermalTemporalFace y UCHThermalFaceIndoorOutdoor, donde se visualizan variaciones en el metabolismo de los sujetos durante diferentes días. Las principales conclusiones de este estudio muestran que: (i) el mejor resultado entre velocidad de procesamiento y altas tasas de reconocimiento es alcanzado por el método de Histogramas WLD, (ii) se valida el uso de la metodología VascularThermalFace, debido al buen desempeño obtenido por todos los métodos de reconocimiento y sus altas tasas de reconocimiento, (iii) experimentos con imágenes adquiridas en diferentes periodos de tiempo, muestran que el desempeño de los métodos es alto y solamente dependen de una buena configuración de la cámara térmica, (iv) experimentos con imágenes adquiridas en sesiones de interior-exterior y viceversa, muestran que el desempeño es bueno para métodos basados en calces locales y bajo para métodos basados en calces globales. De estos resultados, es posible diseñar un sistema de reconocimiento de rostros térmico que sea eficiente y robusto.
70

Clasificación fotométrica de supernovas

Cano Delgado, Ignacio January 2016 (has links)
Ingeniero Civil Eléctrico / Entre los desafíos mas importantes para la cosmología actual se encuentran la expansión y composición del universo. Una de las herramientas mas útiles para la investigación en estos campos son las supernovas de tipo Ia, eventos de gran liberacion energetica que siguen al colapso de una estrella en un sistema binario, esto debido a que las caracteristicas de esta explosión permiten calcular distancias en base a su corrimiento al rojo. El problema es que su identificación y clasificación es un problema no trivial, y el método clasico, el espectroscópico, resulta incapaz de adaptarse al rápido aumento en la información disponible, proveniente de sondeos de última generación. Por lo que resulta de gran importancia encontrar la forma de aprovechar al máximo la información fotométrica, mucho mas abundante que la espec- troscópica. El objetivo de esta memoria es diseñar una metodología para la clasificación de supernovas tipo Ia, que entregue resultados competitivos con los presentes en la literatura, esto mediante la aplicación de correntropía mutua ranurada, una medida discreta de disi- militud, sobre la información fotométrica de estas. Se generan matrices de disimilitud para cada uno de los filtros disponibles (griz ) y se prueban diferentes métodos para la combina- ción de esta información. Se explora el efecto de añadir la información de corrimiento al rojo fotométrico (photo-z ) y la forma de introducirla al proceso de clasificación. La clasificación es realizada utilizando tres implementaciones diferentes de algoritmos de vecinos cercanos (K-nearest neighbours, weighted K-nearest neighbours, y distance-weighted K-nearest neigh- bours). La base de datos utilizada corresponde a la versión corregida de un set de supernovas simuladas creada con motivo del Supernova Photometric Classification Challenge (SNPCC), que contiene la información fotométrica de cerca de 21000 supernovas. El entrenamiento se realiza utilizando un conjunto de 1100 objetos cuya clase ha sido espectroscópicamente confirmada, este subconjunto intenta simular las condiciones de captura esperables (e.g. dis- tribución no representativa de clases, preferencia por objetos mas brillantes) y por lo tanto se ha decidido mantenerlo. Tambien se exploran los resultados obtenidos al utilizar una versión de este conjunto modificada para tener una distribución mas representativa, tanto en ter- minos de clases como de corrimiento al rojo. Se obtiene pureza = 0.556(0.824), eficiencia = 0.567(0.307), y FoM = 0.167(0.187) utilizando el conjunto espectroscópicamente confirmado (en su versión modificada) para el entrenamiento.

Page generated in 0.0658 seconds