• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 16
  • Tagged with
  • 74
  • 74
  • 19
  • 17
  • 16
  • 15
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modelado de sistemas para visión de objetos especulares: inspección visual automática en producción industrial

Azorin-Lopez, Jorge 27 September 2007 (has links)
D.L. A 129-2008
62

Mejoramiento del software Camarón de visualización de mallas 3D e inclusión de visualización científica

Infante Lombardo, Gonzalo Francisco January 2016 (has links)
Ingeniero Civil en Computación / La visualización científica es un área que apoya el análisis de datos generados por simulaciones de fenómenos físicos e ingenieriles, entre otros. Junto a los datos geometrícos del modelo que describen el dominio se requiere visualizar datos escalares y vectoriales asociados a los vértices, arcos y/o caras del modelo. Existen diversas técnicas para visualizar dichos campos tales como coloreado superficial, volume rendering, isolíneas, isosuperficies y otros. Camarón es una herramienta gráfica de estudio de mallas mixtas que permite conocer propiedades de los elementos que las constituyen. Para hacer más fácil el estudio cuenta con coloreado de vértices, polígonos y poliedros según el valor del criterio de evaluación a elección, además de presentar un histograma con la propiedad en estudio. Camarón además cuenta con múltiples renderers, métodos de selección de elementos, criterios de evaluación y archivos de entrada/salida junto con una arquitectura que lo hace fácilmente extensible. Ocupa la GPU de una máquina en forma activa para permitir una interacción fluida. Las GPU son unidades de procesamiento altamente paralelo que permiten paralelizar la mayoría de los algoritmos de visualización científica. Existen varias herramientas desarrolladas para aprovechar los recursos de una GPU tales como CUDA, OpenCl o OpenGL. La última es usada principalmente para fines gráficos. El objetivo de esta memoria consitió en introducir la visualización de campos escalares en Camarón principalmente con el uso de isolíneas para modelos superficiales e isosuperficies para volumétricos. La implementación ocupa el lenguaje C++ y aprovecha las capacidades de procesamiento de una GPU moderna con el uso de la biblioteca OpenGL. La arquitectura implementada es extensible y permite el manejo de valores escalares y vectoriales asociados a los vértices de una malla. Los algoritmos de generación de isosuperficies e isolíneas fueron implementados ocupando las capacidades de paralelismo de una GPU. Más aún el uso de la funcionalidad Transform Feedback en OpenGL permitió que la interacción con la malla fuese fluída. Se mejoró Dado que existen varios visualizadores en 3D para apoyar el análisis de datos científicos, se comparó el software Camarón con uno de los más usados ParaView. Los resultados muestran un desempeño entre 4 y 6 veces mejor para Camarón en términos de rapidez, aunque con sobrecostos en uso de memoria de hasta 6 veces lo usado por ParaView.
63

Reingeniería de un Software para Reconocimiento de Imágenes

Krauss Benavente, Felipe Antonio January 2010 (has links)
El presente trabajo plantea la revisión de un software para el “Reconocimiento de bordes en imágenes aplicado a anillos de árboles”. Dicho producto logra satisfacer sus metas funcionales pero adolece de problemas en su diseño, lo cual provoca que la extensión del mismo se vuelva laboriosa e incluso inviable. Entre sus funcionalidades están la de aplicar distintos filtros a las imágenes, generar una malla inicial, aplicar un algoritmo de mejora en conjunto con los criterios de refinamiento y selección de un punto, y seleccionar puntos y segmentos que pueden formar parte de los anillos de los árboles. El objetivo de esta memoria es realizar un rediseño y posterior reimplementación de este software de reconocimiento de anillos de árboles, para lograr una extensión de sus funcionalidades actuales en lo que respecta al uso de polígonos como geometría inicial, la posibilidad de incorporar nuevos criterios para la mejora y selección del punto, la posibilidad de incorporar nuevos algoritmos de mejoramiento como también para la creación de la malla inicial o para la malla final. Para lo anterior se propone un proceso de desarrollo soportado en análisis y diseño por contrato. El resultado más relevante del presente trabajo es la obtención de un producto que permite la generación automática de mallas geométricas tanto para imágenes como para geometrías poligonales convexas, que además es fácilmente extensible en los aspectos mencionados.
64

Achurado para Objetos 3D con Animación

Graells Garrido, Eduardo Nicolás January 2010 (has links)
El Rendering No Fotorrealista, o NPR (Non Photorealistic Rendering), es una aplicación del proceso de rendering tradicional que busca generar imágenes con algún grado de abstracción. Una técnica puntual de NPR es la de Hatching, o achurado. El achurado es una técnica de pintado a mano alzada que utiliza trazos de líneas para graficar un objeto. La dirección de las líneas abstrae la forma de éstos, mientras que la cantidad de ellas, denominada densidad del achurado, permite interpretar la intensidad de la iluminación a través de la superficie del objeto. La técnica de achurado que se aborda en esta tesis, propuesta por Praun, Hoppe, Webb y Finkelstein en SIGGRAPH 2001 en un artículo llamado “Realtime Hatching”, solamente está definida para modelos 3D estáticos, por lo que para modelos animados la deformación de la geometría no es considerada en el algoritmo. Esta tesis aborda esa problemática: se propone mejorar esa técnica de achurado, extendiéndola para ser aplicada en objetos animados. La elección del algoritmo mencionado se justifica en la tesis a través de una revisión bibliográfica. También se detalla la implementación realizada de dicho algoritmo, se especifican las componentes del sistema y se muestran las herramientas de software libre utilizadas: OpenMesh como estructura de datos base, Eigen como biblioteca de álgebra lineal y trimesh2 como apoyo para el cálculo de curvaturas y direcciones principales en la superficie. Luego de implementar el algoritmo original, se estudia su extensión para ser aplicado a un modelo 3D que presente animación. Ya que el algoritmo de achurado no está definido para objetos animados, la tesis estudia y define lo que se puede denominar como comportamiento correcto del achurado en modelos animados. Así, se presentan las extensiones necesarias para que el algoritmo de achurado funcione correctamente con modelos animados, junto con detalles de implementación de dichas extensiones. Además, se muestran resultados de la aplicación del algoritmo a conjuntos de datos de animación de captura de movimiento de personas. Estos resultados tienen una apariencia visual satisfactoria respecto a la definición de achurado y presentan un rendimiento adecuado para animaciones en tiempo real, al superar los 60 cuadros por segundo en su renderizado. Finalmente, se realiza una discusión en la que se comentan los resultados del algoritmo, en particular sus cualidades y limitantes. Entre sus cualidades se encuentra un planteamiento sencillo y fácil de entender que permite obtener resultados correctos. Entre sus limitantes se encuentra su aplicabilidad a objetos que mantienen una topología constante durante animaciones y el hecho de funcionar con animaciones preconcebidas, no con animaciones arbitrarias producto de interacción con el usuario. Sin embargo, estas limitantes son analizadas y se proponen diferentes alternativas para enfrentarlas como trabajo futuro.
65

Segmentación de Objetos en Imagénes de Microscopía Mediante Contornos Activos con Adaptabilidad Topológica

Olmos Marchant, Luis Felipe January 2009 (has links)
El análisis y procesamiento de imágenes es un área con activo desarrollo en la matemática y ciencia de la computación. La motivación de esta memoria es desarrollar un método de segmentación de objetos biológicos en imágenes de microscopía que construya contornos de la más alta calidad y que requiera la menor interacción humana en su ejecución. Una familia de métodos exitosa en esta área está basada en un modelo de minimización de energía de curvas deformables bajo la influencia de fuerzas externas. En la presente memoria se trabajó en la implementación de uno de estos métodos y constó de dos partes. En la primera parte se implementó el algoritmo Topology Adaptive Snakes o T-Snakes. La propiedad esencial de este método es que admite cambios topológicos en las curvas (fusiones, cortes y destrucción), lo que permite segmentar objetos con formas altamente complejas minimizando la interacción humana en al proceso. En la segunda parte se implementó el algoritmo Edge Preserving Gradient Vector Flow (EPGVF) el cual genera los campos vectoriales que fuerzan las curvas a evolucionar hacia los bordes de objetos en la imagen. Este método se comparó con su algoritmo predecesor, Generalized Gradient Vector Flow (GGVF), sin que EPGVF presentara ventajas convincentes en las imágenes probadas.
66

Reconstrucción de imágenes geológicas basadas en la teoría de compressed sensing

Calderón Amor, Hernán Alberto January 2014 (has links)
Ingeniero Civil Eléctrico / En el ámbito de interpolación geoestadística, el principal problema para estimar variables regionalizadas es la baja cantidad de datos medidos. Este tipo de problemas están extremadamente indeterminados, es decir, presentan una mayor cantidad de grados de libertad que restricciones, lo que deriva en múltiples soluciones. Este trabajo aborda el problema de interpolación de perfiles de permeabilidad desde un enfoque de reconstrucción de imágenes. En particular, el trabajo es motivado por el reciente desarrollo de la teoría RIPless de Compressed Sensing, herramienta que ha introducido un nuevo paradigma de adquisición de datos, permitiendo muestrear a tasas muy por debajo de las establecidas por las técnicas convencionales. El enfoque consiste en modelar las estructuras multicanal como imágenes que presentan una descomposición sparse en algún dominio transformado y utilizar esta información para reconstruir la imagen original a partir de un muestreo sub-crítico y no estructurado. Ésta es la principal diferencia con los métodos tradicionales, los cuales utilizan modelos estadísticos como información a priori para el proceso de estimación. La principal contribución de este trabajo fue la contextualización del problema de interpolación espacial en el marco de Compressed Sensing, generando claras conexiones con los resultados teóricos de esta nueva herramienta. De este análisis, se formuló el problema de selección de base óptima, el cual indicó que bajo el esquema de medición aleatoria de pixeles, la DCT es la base que permite inducir un determinado error de reconstrucción con la menor cantidad de mediciones, superando incluso a las transformadas wavelet. En la línea de los resultados obtenidos, este enfoque presenta prometedores desempeños, incluso en el régimen sub-crítico del 2% al 4% de datos medidos. En cuanto a los aspectos prácticos de procesamiento, la descomposición en distintos niveles de escala (bloques) para su reconstrucción y posterior promedio, mostró mejorías sustanciales en la estimación de las variables de permeabilidad. También se constató que, dada la naturaleza binaria de las imágenes estudiadas, una etapa de categorización genera importantes mejoras en los desempeños del método. Finalmente, esta memoria abrió diversas ramas de estudio para trabajos futuros, dentro de los cuales destacan: implementación de otros algoritmos; estudio de técnicas de post-procesamiento más elaboradas; extender el análisis a diferentes estructuras o modelos geológicos; incorporación de información a priori en esquemas de reconstrucción; y uso conjunto de métodos convencionales y regularización sparse.
67

Estudio del uso de fotogrametría en la detección de grietas y desplazamientos en suelos finos y arenas

Pizarro Granada, Natalia Valentina January 2017 (has links)
Ingeniera Civil / Este trabajo estudia la aplicación de técnicas de fotogrametría para detectar deformaciones y desplazamientos en suelos finos y arenas producto de cambios de humedad en laboratorio. Los suelos finos analizados son arcillas caoliníticas y bentoníticas, y la fracción fina de un relave, materiales con variados índices de plasticidad y sensibilidad a cambios de humedad. Las deformaciones que se analizan en este caso son grietas de desecación. Además, se analiza el comportamiento de arenas medias y finas para detectar desplazamientos producto de la pérdida de humedad originada por su secado, cuando se encuentran en una pendiente. Los ensayos consisten en la captura consecutiva de fotografías a las muestras de suelo en distintos estados de deformación mientras son sometidas a ciclos de temperatura. Las muestras se ensayan dentro de un contenedor térmicamente aislado, equipado con sensores de temperatura, termostato, cámara fotográfica, fuente de calor y ventilador. Los métodos de fotogrametría utilizados son correlación digital de imágenes (CDI) y velocimetría de imágenes de partículas (VIP). Ambos métodos detectan desplazamientos y deformaciones en los suelos finos; sin embargo, en el caso de arenas, solo pueden identificar una zona deformada, pero no su magnitud ni los desplazamientos experimentados. Además, se verifica que suelos finos con mayor plasticidad presentan mayores deformaciones. Sin embargo, la caolinita experimenta mayores niveles de deformación superficial que la bentonita durante el periodo de ejecución de los ensayos por su menor capacidad de retención de agua. Las técnicas analizadas pueden ser utilizadas en terreno de manera complementaria, como un indicador del deterioro superficial de taludes, si se consideran factores como variación de textura, generación de sombras, movimientos de cámara y resolución de imágenes.
68

FADRA: A CPU-GPU framework for astronomical data reduction and Analysis

Concha Ramírez, Francisca Andrea January 2016 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
69

Improvements in illumination compensation for face recognition under noncontrolled illumination conditions

Castillo Faune, Luis Ernesto January 2017 (has links)
Doctor en Ingeniería Eléctrica / Face recognition depends strongly on illumination conditions, especially in non-controlled scenarios where face illumination is not homogeneous. For this reason, illumination compensation is crucial in this task. Several methods for illumination compensation have been developed and tested on the face recognition task using international available face databases. Among the methods with best results are the Discrete Cosine Transform (DCT), Local Normalization (LN) and Self-Quotient Image (SQI). Most of these methods have been applied with great success in face recognition using a principal component classifier (PCA). In the last decade, Local Matching Gabor (LMG) classifiers have shown great success in face classification relative to other classifiers. In all cases, the illumination compensation methods improve the face recognition rates in unevenly illuminated images, but affect negatively in some well illuminated images. The aim of this thesis is to propose improvements to the current illumination compensation methods to obtain improved face recognition rates under different illumination conditions. Using genetic algorithms (GAs), parameters of the SQI method were selected to improve face recognition. The parameters optimized by the GA were: the fraction of the mean value within the region for the SQI, selection of Arctangent, Sigmoid, Hyperbolic Tangent or Minimum functions to eliminate noise, and the weight values of each filter are selected within a range between 0 and 1. The results obtained after using the proposed method were compared to those with no illumination compensation and to those previously published for SQI method. Four internationally available face databases were used: Yale B, CMU PIE, AR, Color FERET (grayscaled), where the first three contain face images with significant changes in illumination conditions, and the fourth one contains face images with small changes in illumination conditions. The proposed method performed better than SQI in images with non-homogeneous illumination. In the same way, GAs were used to optimize parameters of the modified LN and SQI methods in cascade for illumination compensation to improve face recognition. The main novelty of this proposed method is that it applies to non-homogeneous as well as homogeneous illumination conditions. The results were compared to those of the best illumination compensation methods published in the literature, obtaining 100% recognition on faces with non-homogeneous illumination and significantly better results than other methods with homogeneous illumination. Also, the DCT, LN, and SQI illumination compensation methods were optimized using GAs to be used with the LMG face classifier. Results were tested on the FERET international face database. Results show that face recognition can be significantly improved by modified versions of the current illumination compensation methods. The best results are obtained with the optimized LN method which yields a 31% reduction in the total number of errors in the FERET database. Finally, an extension of the LN method using Kolmogorov-Nagumo-based statistics was proposed to improve face recognition. The proposed method is a more general framework for illumination normalization and it was showed that LN is a particular case of this framework. The proposed method was assessed using two different classifiers, PCA and LMG, on the standard face databases Extended Yale B, AR and Gray FERET. The proposed method reached significantly better results than those previously published for other versions of LN on the same databases.
70

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.

Page generated in 0.1103 seconds