• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1096
  • 102
  • 7
  • 1
  • Tagged with
  • 1207
  • 521
  • 385
  • 385
  • 385
  • 385
  • 385
  • 340
  • 330
  • 317
  • 271
  • 239
  • 169
  • 151
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Wavelet packet filter bank selection for texture retrieval

Vidal Salazar, Andrea January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniera Civil Eléctrica / Durante los últimos años, el avance de la tecnología de captura y almacenamiento ha generado un volumen sin precedentes de imágenes digitales almacenadas en las bases de datos. Esto plantea el desafío de desarrollar sistemas autónomos que sean eficientes en la búsqueda y organización del contenido digital. Como problema emblemático surgió Content-Based Image Retrieval como área de investigación. Un sistema de indexación de imágenes busca encontrar las imágenes más similares a una en particular y está compuesto de dos etapas: extracción de características y medición de similitud. La primera etapa busca la forma de representar la imagen extrayendo las características más discriminativas, mientras que la segunda etapa es usada para ordenar las imágenes de acuerdo a su similitud. Esta tesis propone el uso de Wavelet Packet para abordar el problema de indexación de imágenes de texturas. Wavelet Packet es una herramienta del procesamiento de señales que no ha sido usada en el estado del arte para enfrentar el problema de indexación y, además, es capaz del proveer distintas representaciones para una imagen. Para seleccionar la mejor representación de Wavelet Packet, este trabajo propone una nueva metodología para el problema de indexación que aborda el problema de selección de bases para la familia de Wavelet Packets utilizando el criterio de Mínima Probabilidad de Error. Como resultado de la implementación de la metodología propuesta, se muestra que las soluciones provistas por Wavelet Packet son adaptivas y mejoran el desempeño del sistema de indexación con respecto a la solución Wavelet, bajo condiciones similares y modelos estadísticos.
22

Uso de modelos en OpticStudio (Zemax) para caracterizar el perfil de luz de imágenes astronómicas

Jara Pinochet, Rodolfo Alejandro January 2017 (has links)
Ingeniero Civil en Computación / La luz visible es la única parte de la radiación electromagnética que es reconocida como un estímulo detectable en el sistema visual humano. Para mejorar la capacidad de observar imágenes astronómicas se han desarrollado grandes y precisos telescopios. Asimismo, la sensibilidad de las observaciones actualmente ha mejorado al usar detectores CCD (Charge- Coupled Device), que recogen fotones y convierten a formato digital la información que se recibe del objeto astronómico en observación. A partir de modelos en OpticStudio (modelos ópticos) se simularon PSFs (Point Spread Function) en dispositivos CCD y se verifico que las simulaciones realizadas producían una respuesta igual de buena como la predicha por la teoría de aberraciones clásica. Como información de contexto se explican conceptos de óptica, Point Spread Function (PSF), modelos de telescopios, una descripción pormenorizada de los dispositivos CCD. Se describe las funciones atingentes a la generación de una PSF a partir de un modelo óptico en el software OpticStudio y se explica cómo se llegó al código (en Matlab) utilizado para realizar las simulaciones. Del modelo en OpticStudio se exportaba la grilla de datos de la Huygens PSF a Matlab, donde se integraba, se asignaba a los pixeles del CCD y se agregaban las fuentes de ruido para producir las simulaciones, de las cuales se producían cientos o miles de realizaciones que eran exportadas en formato fits, las cuales eran posteriormente procesadas por un conjunto de rutinas en un ambiente de reducción de datos astronómico (donde los datos astronómicos son manipulados para obtener la información útil al astrónomo). Dentro de las simulaciones se realizaron variaciones desviando el eje óptico (como si el espejo se inclinara) y se compararon dichas variaciones con modelos teóricos, los cuales concordaron en alta medida con la teoría de las aberraciones (coma y astigmatismo), demostrando la utilidad de usar esta forma de estudiar dispositivos ópticos para reproducir efectos ópticos producidos en espejos parabólicos y esféricos (dado que estos son de uso frecuente en astronomía) y así caracterizar el perfil de luz de imágenes astronómicas. / Este trabajo ha sido parcialmente financiado por Proyecto FONDECYT N° 1151213
23

Desarrollo de un algoritmo de stitching para secuencia de imágenes con amplios movimientos de cámara

Gálvez Ortiz, Sebastián Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / En la actualidad, se han desarrollado los algoritmos de stitching para sintetizar el contenido de múltiples imágenes. Dependiendo del tipo de movimiento descrito por la cámara, existen diversas formas de abordar este problema, ya sea generando una imagen plana o una representación tridimensional de la escena. En particular, secuencias de imágenes capturadas con cambios grandes de la posición de la cámara, presentan un desafío para su aplicación directa. Así, el presente trabajo desarrolla una propuesta de algoritmo que incorpora técnicas del estado del arte para abordar este tipo de secuencias. La propuesta se basa en establecer correspondencias mediante la extracción y calce de descriptores visuales y es implementada en dos fases. En la primera, se explora el uso de transformaciones de homografía para relacionar imágenes, proyectando el contenido a una imagen de referencia. En la segunda fase, se estiman simultáneamente las poses de la cámara y una representación aproximada de la escena, correspondiente a una superficie tridimensional, sobre la que se proyecta el contenido de cada vista. Para evaluar el desarrollo, se definen pruebas que incluyen la medición del error de reproyección promedio y la evaluación visual de las composiciones finales. En los resultados obtenidos para el primer enfoque, se miden desplazamientos promedio de más de 4[px] al proyectar sucesivamente puntos correspondientes hacia la vista de referencia. Luego, en la composición final, se observan muchos sectores mal alineados, ya que las transformaciones obtenidas son válidas en zonas muy acotadas de la imagen, producto de las diferencias de profundidad. Estos resultados llevan a implementar la segunda fase, donde se obtienen reconstrucciones parciales de la escena con un error de reproyección promedio de 0.005[px], con desviación de 0.0018[px]. Así, a pesar de la baja densidad de la nube de puntos, existe una mejora en la apreciación visual del alineamiento en la composición, además de introducir la ventaja de utilizar puntos de vista arbitrarios. Con el trabajo realizado, se logran identificar las limitaciones del registro por homografías sobre las secuencias tratadas. Además, se presenta una propuesta que mejora la alineación del primer enfoque, al lograr combinar las distintas vistas de una secuencia sobre una representación tridimensional aproximada de la escena. Finalmente, se concluye que la propuesta desarrollada otorga una base para solucionar el problema planteado y permite identificar líneas de trabajo futuro, entre las cuales se destaca el buscar obtener una reconstrucción métrica densa de la escena que sintetice la información de todas las vistas en el modelo tridimensional. / Este trabajo ha sido parcialmente financiado por Woodtech S.A. y Red To Green S.A. / 16/08/2022
24

Design, construction and testing of a 2SB receiver for the southern millimeter-wave telescope

Rodríguez Olivos, Rafael Ignacio January 2015 (has links)
Doctor en Ingeniería Eléctrica / Este trabajo presenta un prototipo de un receptor de separación de banda lateral (2SB) para el Telescopio Austral de Ondas Milimétricas (SMWT) de 1.2 m de diámetro en el marco de su modernización. Ésta consiste en cambiar la configuración del receptor desde una configuración de doble banda lateral (DSB) a una 2SB con el fin de obtener un receptor competitivo para las observaciones astronómicas. También se presenta el rendimiento de este receptor en combinación con una plataforma digital que integra un híbrido de frecuencia intermedia (IF) y un espectrómetro en un receptor astronómico. De esta manera, se logran razones de rechazo de banda mejores que el actual estado del arte . En primer lugar, hemos caracterizado el receptor 2SB totalmente analógico y sus componentes usando dos importantes figuras de mérito: rechazo de banda y temperatura de ruido. La razón de rechazo de banda fue mayor que 7 dB en toda el ancho de banda de trabajo, mostrando que los componentes fabricados (Híbrido RF, Bifurcación de LO y Carga RF) cumplieron de buena forma las especificaciones. La temperatura de ruido del receptor estuvo bajo los 1500 K, atribuible principalmente al bajo rendimiento de los mezcladores comerciales, y más recientemente 300 K, después de cambiar el amplificador de bajo ruido y los mezcladores. Segundo, hemos medido también la razón de rechazo de banda para diferentes configuraciones del receptor 2SB usando un espectrómetro e híbrido RF digital como back-end. En todos los casos, una razón de rechazo de banda superior a 35 dB fue obtenida. Además, hemos comparado el rechazo de banda de un receptor completamente análogo 2SB de Banda-9 de ALMA con uno usando el esquema de back-end digital. Obtuvimos razones de rechazo de banda sobre 35 dB in toda la banda RF para el versión digital. Ésto esta sobre el rendimiento de cualquier receptor 2SB completamente análogo en la actualidad.
25

Efficient non-interactive zero-knowledge Proofs

González Ulloa, Alonso Emilio January 2017 (has links)
Doctor en Ciencias, Mención Computación / Non-Interactive Zero-Knowledge (NIZK) proofs, are proofs that yield nothing beyond their validity. As opposed to the interactive variant, NIZK proofs consist of only one message and are more suited for high-latency scenarios and for building inherently non- interactive schemes, like signatures or encryption. With the advent of pairing-based cryptography many cryptosystems have been built using bilinear groups, that is, three abelian groups G1,G2,GT oforderqtogetherwithabilinear function e : G1 × G2 → GT . Statements related to pairing-based cryptographic schemes are naturally expressed as the satisfiability of equations over these groups and Zq. The Groth-Sahai proof system, introduced by Groth and Sahai at Eurocrypt 2008, provides NIZK proofs for the satisfiability of equations over bilinear groups and over the integers modulo a prime q. Although Groth-Sahai proofs are quite efficient, they easily get expensive unless the statement is very simple. Specifically, proving satisfiability of m equations in n variables requires sending as commitments to the solutions Θ(n) elements of a bilinear group, and a proof that they satisfy the equations, which we simply call the proof, requiring additional Θ(m) group elements. In this thesis we study how to construct aggregated proofs i.e. proofs of size independent of the number of equations for different types of equations and how to use them to build more efficient cryptographic schemes. We show that linear equations admit aggregated proofs of size Θ(1). We then study the case of quadratic integer equations, more concretely the equation b(b − 1) = 0 which is the most useful type of quadratic integer equation, and construct an aggregated proof of size Θ(1). We use these results to build more efficient threshold Groth-Sahai proofs and more efficient ring signatures. We also study a natural generalization of quadratic equations which we call set-membership proofs i.e. show that a variable belongs to some set. We first construct an aggregated proof of size Θ(t), where t is the set size, and of size Θ(logt) if the set is of the form [0,t − 1] ⊂ Zq. Then, we further improve the size of our set-membership proofs and construct aggregated proofs of size Θ(log t). We note that some cryptographic schemes can be naturally constructed as set-membership proofs, specifically we study the case of proofs of correctness of a shuffle and range proofs. Starting from set-membership proofs as a common building block, we build the shortest proofs for both proof systems. / Este trabajo ha sido parcialmente financiado por CONICYT, CONICYT-PCHA/Doctorado Nacional/2013-21130937
26

Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular

Smith Albornoz, Felipe Eduardo January 2015 (has links)
Ingeniero Civil Eléctrico / La biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
27

Detección de Parámetros y Extracción de Características de Señales ECG mediante técnicas Procesamiento Digital de Señales

Sunohara Ramírez, Dante Yoshio, Toscano Palacios, José Carlos January 2006 (has links)
Este trabajo se encuentra dividido en seis capítulos, en el primero de ellos hacemos referencia a los objetivos este proyecto, sus aplicaciones y porque realizamos el proyecto. En el capitulo siguiente hacemos una pequeña reseña histórica de la electrónica en la medicina, como esta ha ido evolucionando, sus objetivos y las diferentes aplicaciones que pueda tener en el campo de la medicina. En el tercer capítulo realizamos una introducción de las señales ECG y sus características principales, para su mejor entendimiento, también hacemos referencia del electrocardiograma para que se pueda comprender el significado de los gráficos que obtendremos. En el capítulo cuatro explicaremos los métodos de extracción de los parámetros, es decir damos a conocer los métodos para la separar y así poder mostrar los parámetros QRS P y T de las señales ECG. El capítulo cinco explica la interface visual de usuario, las diversas opciones que presenta al momento de la ejecución del mismo. En el último capítulo detallamos los resultados y conclusiones obtenidas luego del desarrollo de este proyecto, dando algunas recomendaciones para trabajos futuros.
28

Efficient algorithms for risk averse optimization

Chicoisne, Renaud Pierre January 2015 (has links)
Doctor en Sistemas de Ingeniería / Muchos problemas de decisión industriales o logísticos pueden ser vistos como problemas de optimización y para muchos de ellos no es razonable ocupar datos deterministas. Como veremos en este trabajo en el contexto de despachos de emergencia o de planificación de seguridad, las condiciones reales son desconocidas y tomar decisiones sin considerar esta incertidumbre pueden llevar a resultados catastróficos. La teoría y la aplicación de optimización bajo incertidumbre es un tema que ha generado un amplio área de investigación. Sin embargo, aún existen grandes diferencias en complejidad entre optimización determinista y su versión incierta. En esta tesis, se estudian varios problemas de optimización con aversión al riesgo con un enfasis particular en el problema de camino más corto (RASP), problemas estocásticos en redes en general y juegos de seguridad de Stackelberg. Para obtener distribuciones de tiempos de viaje precisos sobre una red vial a partir de datos GPS del sistema de tránsito, se presenta una revisión de los métodos existentes para proyectar trayectorias GPS y se definen dos nuevos algoritmos: Uno que permite la proyección de datos óptima con respecto a una medida de error convenientemente definida (MOE), y un método heurístico rápido que permite proyectar grandes cantidades de datos de manera contínua (MMH). Se presentan resultados computacionales en redes reales y generadas de gran tamaño. Luego, se desarrollan algoritmos eficientes para problemas de ruteo con aversión al riesgo utilizando métodos de Sample Average Approximation, técnicas de linealización y métodos de descomposición. Se estudian la medida de riesgo entrópica y el Conditional Value at Risk considerando correlaciones entre las variables aleatorias. Se presentan resultados computacionales prometedores en instancias generadas de tamaño mediano. Sin embargo, la naturaleza combinatorial de los problemas los vuelve rapidamente intratable a medida que el tamaño del problema crece. Para hacer frente a esta dificultad computacional, se presentan nuevas formulaciones para problemas en redes difíciles, que tienen un menor número de variables enteras. Estas formulaciones ayudan a derivar esquemas de brancheo que se aprovechan de la estructura especial de las formulaciones propuestas. Se muestra como aplicar estas ideas a los conjuntos de camino simple y de circuito hamiltoniano en redes generales, así como los conjuntos de camino simple y de corte en grafos dirigidos acíclicos (DAG). Este trabajo preliminar muestra ideas prometedoras para resolver problemas difíciles. Finalmente, se exploran las implicaciones de los métodos algortmicos y las formulaciones desarrolladas para resolver RASP en un área diferente. Se presentan nuevas formulaciones y enfoques de resolución para juegos de seguridad de Stackelberg cuando el defensor es averso al riesgo con respecto a la estrategia del atacante. Esto se puede resolver de manera polinomial cuando se enfrenta a un adversario y resolviendo un problema de optimización convexa en números enteros cuando el defensor enfrenta varios tipos de adversarios.
29

Detección y seguimiento de manos en videos digitales utilizando computadores y mini-computadores

Cisneros Velarde, Pedro Arturo 12 May 2014 (has links)
El problema del seguimiento de manos o hand tracking puede definirse como la capacidad de un sistema computacional de poder reconocer las manos de un individuo (usuario) y hacerles un seguimiento en todo momento. El inter´es por el estudio del movimiento de las manos se debe a dos particularidades. En primer lugar, se debe a que las manos son protagonistas en la realizaci´on de varias tareas diarias del ser humano, pues las manos son un distintivo de las diferentes actividades humanas. Las manos permite la manipulaci ´on de objetos; de lo cual se basa una gran dimensi´on de la interactividad del hombre con sus diferentes herramientas de trabajo [1]. No es de sorprender que, con el reconocimiento del movimiento de las manos, se puedan reconocer varias actividades de las personas: comer, saludar, martillar, apu˜nar, se˜nalar, etc. En segundo lugar, las manos, junto con el rostro, son los dos mayores indicadores gestuales dentro de la comunicación no verbal; lo cual indica que en las manos hay un gran despliegue de diferentes gestos, seas y apariencias, y por tanto, tengan una gran riqueza de significado comunicativo. / Tesis
30

Proceso de extracción de patrones secuenciales para la caracterización de fenómenos espacio-temporales

Maldonado Cadenillas, Rodrigo Ricardo 30 May 2016 (has links)
El objetivo de este trabajo de fin de carrera es realizar un proceso de extracción de patrones secuenciales basado en KDD, empleando el algoritmo de minería de patrones secuenciales PrefixSpan para prever el comportamiento de fenómenos representados por eventos que cambian con el tiempo y el espacio. Estos tipos de fenómenos son llamados fenómenos espacio-temporales, los cuales son un conjunto de eventos o hechos perceptibles por el hombre. Además, están compuestos por un componente espacial (la ubicación donde sucede el fenómeno), un componente temporal (el momento o intervalo de tiempo en el que ocurre el fenómeno) y un componente de análisis (el conjunto de características que describen el comportamiento del fenómeno). En el mundo, se pueden observar una gran diversidad de fenómenos espaciotemporales; sin embargo, el presente trabajo de fin de carrera se centra en los fenómenos naturales, tomando como caso de prueba el fenómeno espacio-temporal de la contaminación de los ríos en Reino Unido. Por lo tanto, con el fin de realizar un estudio completo sobre este fenómeno, se utiliza KDD (Knowledge Discovery in Databases) para la extracción del conocimiento a través de la generación de patrones novedosos y útiles dentro de esquemas sistemáticos complejos. Además, se utilizan métodos de Minería de Datos para extraer información útil a partir de grandes conjuntos de datos. Así mismo, se utilizan patrones secuenciales, los cuales son eventos frecuentes que ocurren en el tiempo y que permiten descubrir correlaciones entre eventos y revelar relaciones de “antes” y “después”. En resumen, el presente trabajo de fin de carrera se trata de un proceso para mejorar el estudio del comportamiento de los fenómenos gracias al uso de patrones secuenciales. De esta manera, se brinda una alternativa adicional para mejorar el entendimiento de los fenómenos espacio-temporales; y a su vez, el conocimiento previo de sus factores causantes y consecuentes que se puedan desencadenar, lo cual permitiría lanzar alertas tempranas ante posibles acontecimientos atípicos. / Tesis

Page generated in 0.0674 seconds