• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 137
  • 33
  • 14
  • Tagged with
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 56
  • 46
  • 34
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Design and validation of a structural health monitoring system for aeronautical structures.

Tibaduiza Burgos, Diego Alexander 18 January 2013 (has links)
Structural Health Monitoring (SHM) is an area where the main objective is the verification of the state or the health of the structures in order to ensure proper performance and maintenance cost savings using a sensor network attached to the structure, continuous monitoring and algorithms. Different benefits are derived from the implementation of SHM, some of them are: knowledge about the behavior of the structure under different loads and different environmental changes, knowledge of the current state in order to verify the integrity of the structure and determine whether a structure can work properly or whether it needs to be maintained or replaced and, therefore, to reduce maintenance costs. The paradigm of damage identification (comparison between the data collected from the structure without damages and the current structure in orderto determine if there are any changes) can be tackled as a pattern recognition problem. Some statistical techniques as Principal Component Analysis (PCA) or Independent Component Analysis (ICA) are very useful for this purpose because they allow obtaining the most relevant information from a large amount of variables. This thesis uses an active piezoelectric system to develop statistical data driven approaches for the detection, localization and classification of damages in structures. This active piezoelectric system is permanently attached to the surface of the structure under test in order to apply vibrational excitations and sensing the dynamical responses propagated through the structure at different points. As pattern recognition technique, PCA is used to perform the main task of the proposed methodology: to build a base-line model of the structure without damage and subsequentlyto compare the data from the current structure (under test) with this model. Moreover, different damage indices are calculated to detect abnormalities in the structure under test. Besides, the localization of the damage can be determined by means of the contribution of each sensor to each index. This contribution is calculated by several different methods and their comparison is performed. To classify different damages, the damage detection methodology is extended using a Self-Organizing Map (SOM), which is properly trained and validated to build a pattern baseline model using projections of the data onto the PCAmodel and damage detection indices. This baseline is further used as a reference for blind diagnosis tests of structures. Additionally, PCA is replaced by ICAas pattern recognition technique. A comparison between the two methodologies is performed highlighting advantages and disadvantages. In order to study the performance of the damage classification methodology under different scenarios, the methodology is tested using data from a structure under several different temperatures. The methodologies developed in this work are tested and validated using different structures, in particular an aircraft turbine blade, an aircraft wing skeleton, an aircraft fuselage,some aluminium plates and some composite matarials plates. / La monitorización de daños en estructuras (SHM por sus siglas en inglés) es un área que tiene como principal objetivo la verificación del estado o la salud de la estructura con el fin de asegurar el correcto funcionamiento de esta y ahorrar costos de mantenimiento. Para esto se hace uso de sensores que son adheridos a la estructura, monitorización continua y algoritmos. Diferentes beneficios se obtienen de la aplicación de SHM, algunos de ellos son: el conocimiento sobre el desempeño de la estructura cuando esta es sometida a diversas cargas y cambios ambientales, el conocimiento del estado actual de la estructura con el fin de determinar la integridad de la estructura y definir si esta puede trabajar adecuadamente o si por el contrario debe ser reparada o reemplazada con el correspondiente beneficio del ahorro de gastos de mantenimiento. El paradigma de la identificación de daños (comparación entre los datos obtenidos de la estructura sin daños y la estructura en un estado posterior para determinar cambios) puede ser abordado como un problema de reconocimiento de patrones. Algunas técnicas estadísticas tales como Análisis de Componentes Principales (PCA por sus siglas en inglés) o Análisis de Componentes Independientes (ICA por sus siglas en ingles) son muy útiles para este propósito puesto que permiten obtener la información más relevante de una gran cantidad de variables. Esta tesis hace uso de un sistema piezoeléctrico activo para el desarrollo de algoritmos estadísticos de manejo de datos para la detección, localización y clasificación de daños en estructuras. Este sistema piezoeléctrico activo está permanentemente adherido a la superficie de la estructura bajo prueba con el objeto de aplicar señales vibracionales de excitación y recoger las respuestas dinámicas propagadas a través de la estructura en diferentes puntos. Como técnica de reconocimiento de patrones se usa Análisis de Componentes Principales para realizar la tarea principal de la metodología propuesta: construir un modelo PCA base de la estructura sin daño y posteriormente compararlo con los datos de la estructura bajo prueba. Adicionalmente, algunos índices de daños son calculados para detectar anormalidades en la estructura bajo prueba. Para la localización de daños se usan las contribuciones de cada sensor a cada índice, las cuales son calculadas mediante varios métodos de contribución y comparadas para mostrar sus ventajas y desventajas. Para la clasificación de daños, se amplia la metodología de detección añadiendo el uso de Mapas auto-organizados, los cuales son adecuadamente entrenados y validados para construir un modelo patrón base usando proyecciones de los datos sobre el modelo PCA base e índices de detección de daños. Este patrón es usado como referencia para realizar un diagnóstico ciego de la estructura. Adicionalmente, dentro de la metodología propuesta, se utiliza ICA en lugar de PCA como técnica de reconocimiento de patrones. Se incluye también una comparación entre la aplicación de las dos técnicas para mostrar las ventajas y desventajas. Para estudiar el desempeño de la metodología de clasificación de daños bajo diferentes escenarios, esta se prueba usando datos obtenidos de una estructura sometida a diferentes temperaturas. Las metodologías desarrolladas en este trabajo fueron probadas y validadas usando diferentes estructuras, en particular un álabe de turbina, un esqueleto de ala y un fuselaje de avión, así como algunas placas de aluminio y de material compuesto
62

Lógica difusa aplicada a conjuntos imbalanceados: aplicación a la detección del Síndrome de Down

Soler Ruiz, Vicenç 23 January 2007 (has links)
El problema a resolver en esta Tesis Doctoral consiste en hallar una solución que mejore la clasificación que se consigue actualmente para el problema de la detección precoz del síndrome de Down en fetos, durante el segundo trimestre de embarazo, con técnicas no invasivas.El conjunto de datos usado para la detección del síndrome de Down es de dos clases y de tipo imbalanceado, es decir, que hay una gran diferencia entre el número de casos correspondientes a fetos que no son afectados por el síndrome de Down y los que sí lo son.Para tratar de mejorar la clasificación que se logra en la actualidad, se ha desarrollado un nuevo método de Soft Computing basado en Lógica Difusa diseñado para trabajar con conjuntos de datos imbalanceados. Este método permite, no sólo hallar una buena solución, sino también extraer el conocimiento adquirido.El método desarrollado se denomina FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) y se basa en la idea de que la solución generalice lo máximo posible, para evitar el efecto de sobreaprendizaje ("overfitting") que se produce en la mayoría de métodos al tratar de trabajar con un conjunto de datos imbalanceado. Para proporcionar las herramientas necesarias al método para que generalice, se ha desarrollado un algoritmo llamado ReRecBF, que forma parte del método FLAGID. Este algoritmo transforma las funciones de pertenencia obtenidas a partir de los datos por otro algoritmo ya existente llamado DDA/RecBF. Esta transformación consiste en convertir las funciones de pertenencia generadas a partir de los casos de la clase-menor en funciones triangulares, dejar como funciones trapezoidales las funciones de pertenencia de la clase-mayor y dividir las funciones de pertenencia que se solapen. Finalmente, debido a que se generan nuevas funciones de pertenencia, un algoritmo genético es usado simplemente para hallar las reglas que más se ajusten a las nuevas funciones.Los resultados obtenidos han mejorado la tasa de falsos positivos en el conjunto de datos del síndrome de Down hasta el 4%, con una tasa de verdaderos positivos del 60%. Esta es la primera vez que un método consigue bajar del 5% de falsos positivos con esa tasa de aciertos en los verdaderos positivos. Además, se ha extraído el conocimiento del resultado, y éste ha coincidido, en su mayoría, con el conocimiento existente en el campo de la medicina. Otro hecho remarcable es que se ha comprobado que el método también es útil para trabajar con conjuntos de datos imbalanceados.Finalmente, los resultados de este trabajo realizan aportaciones nuevas en el campo de la medicina, como son la importancia de la edad gestacional del feto en la detección de los casos positivos y que el peso de la madre tiene más importancia que simplemente el calibrar los dos indicadores hormonales AFP y hCG. / The problem to solve in this PhD Thesis consists of finding a solution that improves the classification that is obtained at the moment for the problem of the detection of the Down syndrome in fetuses, during the second trimester of pregnancy, with non-invasive techniques.The dataset used for the detection of the Down syndrome is imbalanced and two classes type, that is, that there are a great difference between the number of cases corresponding to fetuses that are not affected by the Down syndrome and those that are affected.In order to try to improve the classification that is obtained at the present time, a new method of Soft Computing has been developed based on Fuzzy Logic and designed to work with imbalanced datasets. This method allows, not only to find a good solution, but also to extract the acquired knowledge. The developed method is called FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) and it is based on the idea that the solution tries to generalize at maximum, avoiding the overfitting effect that takes place in most of methods when trying to work with an imbalanced dataset. In order to provide the necessary tools to the method that allows it to generalize, an algorithm called ReRecBF has been developed, which is a part of method FLAGID. This algorithm transforms the membership functions obtained from the data by another existing algorithm, called DDA/RecBF. This transformation consists of turning the membership functions generated from the cases of the minor-class in triangular functions, leaving like trapezoidal functions the membership functions of the major-class, dividing the membership functions that are overlapped. Finally, because new membership functions are generated, a genetic algorithm is used simply to find the rules that adjust more to the new functions.The results obtained have improved the rate of false positives in the data set of the Down syndrome until 4%, with a rate of true positives of 60%. This is the first time that a method is able to achieve a lower rate of 5% of false positives with that rate of successes in the true positives. In addition, the knowledge of the result has been extracted, and this one has agreed, in its majority, with the existing knowledge in the field of the medicine. Another remarkable fact is that it has been verified that the method also is useful to work with imbalanced datasets. Finally, the results of this work make new contributions in the field of the medicine, like the importance of the gestational age of the fetus in the detection of the positive cases and that the weight of the mother has more indicating importance than simply calibrating both hormonal AFP and hCG.
63

Color for Object Detection and Action Recognition

Anwer, Rao Muhammad 30 April 2013 (has links)
Detectar objetos en imágenes es un problema central en el campo de la visión por computador. El marco de detección basado en modelos de partes deformable es actualmente el más eficaz. Generalmente, HOG es el descriptor de imágenes a partir del cual se construyen esos modelos. El reconocimiento de acciones humanas es otro de los tópicos de más interés actualmente en el campo de la visión por computador. En este caso, los modelos usados siguen la idea de conjuntos de palabras (visuales), en inglés bag-of-words, en este caso siendo SIFT uno de los descriptor de imágenes más usados para dar soporte a la formación de esos modelos. En este contexto hay una información muy relevante para el sistema visual humano que normalmente está infrautilizada tanto en la detección de objetos como en el reconocimiento de acciones, hablamos del color. Es decir, tanto HOG como SIFT suelen ser aplicados al canal de luminancia o algún tipo de proyección de los canales de color que también lo desechan. Globalmente esta tesis se centra en incorporar color como fuente de información adicional para mejorar tanto la detección objetos como el reconocimiento de acciones. En primer lugar la tesis analiza el problema de la detección de personas en fotografías. En particular nos centramos en analizar la aportación del color a los métodos del estado del arte. A continuación damos el salto al problema de la detección de objetos en general, no solo personas. Además, en lugar de introducir el color en el nivel más bajo de la representación de la imagen, lo cual incrementa la dimensión de la representación provocando un mayor coste computacional y la necesidad de más ejemplos de aprendizaje, en esta tesis nos centramos en introducir el color en un nivel más alto de la representación. Esto no es trivial ya que el sistema en desarrollo tiene que aprender una serie de atributos de color que sean lo suficientemente discriminativos para cada tarea. En particular, en esta tesis combinamos esos atributos de color con los tradicionales atributos de forma y lo aplicamos de forma que mejoramos el estado del arte de la detección de objetos. Finalmente, nos centramos en llevar las ideas incorporadas para la tarea de detección a la tarea de reconocimiento de acciones. En este caso también demostramos cómo la incorporación del color, tal y como proponemos en esta tesis, permite mejorar el estado del arte. / Recognizing object categories in real world images is a challenging problem in computer vision. The deformable part based framework is currently the most successful approach for object detection. Generally, HOG are used for image representation within the part-based framework. For action recognition, the bag-of-word framework has shown to provide promising results. Within the bag-of-words framework, local image patches are described by SIFT descriptor. Contrary to object detection and action recognition, combining color and shape has shown to provide the best performance for object and scene recognition. In the first part of this thesis, we analyze the problem of person detection in still images. Standard person detection approaches rely on intensity based features for image representation while ignoring the color. Channel based descriptors is one of the most commonly used approaches in object recognition. This inspires us to evaluate incorporating color information using the channel based fusion approach for the task of person detection. In the second part of the thesis, we investigate the problem of object detection in still images. Due to high dimensionality, channel based fusion increases the computational cost. Moreover, channel based fusion has been found to obtain inferior results for object category where one of the visual varies significantly. On the other hand, late fusion is known to provide improved results for a wide range of object categories. A consequence of late fusion strategy is the need of a pure color descriptor. Therefore, we propose to use Color attributes as an explicit color representation for object detection. Color attributes are compact and computationally efficient. Consequently color attributes are combined with traditional shape features providing excellent results for object detection task. Finally, we focus on the problem of action detection and classification in still images. We investigate the potential of color for action classification and detection in still images. We also evaluate different fusion approaches for combining color and shape information for action recognition. Additionally, an analysis is performed to validate the contribution of color for action recognition. Our results clearly demonstrate that combining color and shape information significantly improve the performance of both action classification and detection in still images.
64

Learning to represent handwritten shapes and words for matching and recognition

Almazán, Jon 21 November 2014 (has links)
La escritura es una de las formas más importantes de comunicación y durante siglos ha sido el método ma ́s fiable para preservar conocimiento. Sin embargo, a pesar del reciente desarrollo de las imprentas y dispositivos, la escritura manuscrita todavía se utiliza ampliamente para tomar notas, hacer anotaciones, o dibujar bocetos. Con el fin de hacerlos fácilmente accesibles, hay una enorme cantidad de documentos escritos a mano, algunos de ellos con un valor cultural incalculable, que han sido recientemente digitalizados. Esto ha hecho necesario el desarrollo de métodos capaces de extraer información de este tipo de imágenes. Transferir a los ordenadores la capacidad de comprender y reconocer texto y formas escritas a mano ha sido el objetivo de muchos investigadores debido a su gran importancia para muchos campos diferentes. Sin embargo, el diseño de buenas representaciones para lidiar con formas manuscritas es un problema muy difícil debido a la gran variabilidad en este tipo de formas. Una de las consecuencias de trabajar con formas escritas a mano es que necesitamos representaciones que sean robustas, es decir, capaces de adaptarse a la gran variabilidad interna de la clase. Necesitamos representaciones que sean discriminativas, es decir, capaces de aprender cuáles son las diferencias entre las clases. Y necesitamos representaciones que sean eficientes, es decir, capaces de ser calculadas y comparadas con rapidez. Desafortunadamente, las técnicas actuales de representación de formas manuscritas para la recuperación y el reconocimiento no cumplen todos o algunos de estos requisitos. En esta tesis nos centramos en el problema de aprender a representar formas manuscritas dirigido a tareas de recuperación y reconocimiento. En concreto, en la primera parte de la tesis, nos centramos en el problema general de la representación de formas manuscritas para clasificación y reconocimiento. Primero presentamos un descriptor de forma basado en una rejilla deformable que se adapta a grandes deformaciones y donde las celdas de la cuadrícula se utilizan para extraer diferentes características. Seguidamente, proponemos utilizar este descriptor para aprender modelos estadísticos basados en el Active Appearance Model, que aprende de forma conjunta la variabilidad en la estructura y la textura de una determinada clase. En la segunda parte nos centramos en una aplicación concreta, el problema de word spotting, donde el objetivo es encontrar todas las instancias de una palabra dada en un conjunto de imágenes. En primer lugar, abordamos el problema sin segmentación previa y proponemos un enfoque no supervisado, basado en ventana deslizante que supera el estado del arte en dos datasets públicos. En segundo lugar, se aborda el problema de word spotting con varios escritores, donde la variabilidad de palabras aumenta exponencialmente. Se describe un método en el que las imágenes de texto y cadenas de texto se proyectan en un subespacio vectorial común, y donde aquellos vectores que representan la misma palabra están más próximos. Esto se logra gracias a una combinación de label embedding y aprendizaje de atributos, y una regresión a subespacio común. Evaluamos nuestro método en bases de datos públicas de documentos manuscritos e imágenes naturales que muestran resultados comparables o mejores que el estado del arte en tareas de búsqueda y reconocimiento. / Writing is one of the most important forms of communication and for centuries, handwriting had been the most reliable way to preserve knowledge. However, despite the recent development of printing houses and electronic devices, handwriting is still broadly used for taking notes, doing annotations, or sketching ideas. In order to be easily accessed, there is a huge amount of handwritten documents, some of them with uncountable cultural value, that have been recently digitized. This has made necessary the development of methods able to extract information from these document images. Transferring the ability of understanding handwritten text or recognizing handwritten shapes to computers has been the goal of many researches due to its huge importance for many different fields. However, designing good representations to deal with handwritten shapes, e.g. symbols or words, is a very challenging problem due to the large variability of these kinds of shapes. One of the consequences of working with handwritten shapes is that we need representations to be robust, i.e., able to adapt to large intra-class variability. We need representations to be discriminative, i.e., able to learn what are the differences between classes. And, we need representations to be efficient, i.e., able to be rapidly computed and compared. Unfortunately, current techniques of handwritten shape representation for matching and recognition do not fulfill some or all of these requirements. Through this thesis we focus on the problem of learning to represent handwritten shapes aimed at retrieval and recognition tasks. Specifically, on the first part of the thesis, we focus on the general problem of representing handwritten shapes for classification and matching. We first present a novel shape descriptor based on a deformable grid that deals with large deformations by adapting to the shape and where the cells of the grid can be used to ex- tract different features. Then, we propose to use this descriptor to learn statistical models, based on the Active Appearance Model, that jointly learns the variability in structure and texture of a given shape class. Then, on the second part, we focus on a concrete application, the problem of word spotting, where the goal is to find all instances of a query word in a dataset of images. First, we address the segmentation-free problem and propose an unsupervised, sliding-window-based approach that achieves state-of-the-art results in two public datasets. Second, we address the more challenging multi-writer problem, where the variability in words exponentially increases. We describe an approach in which both word images and text strings are embedded in a common vectorial subspace, and where those that represent the same word are close together. This is achieved by a combination of label embedding and attributes learning, and a common subspace regression. This leads to a low- dimensional, unified representation of word images and strings, resulting in a method that allows one to perform either image and text searches, as well as image transcription, in a unified framework. We test our approach on four public datasets of both handwritten documents and natural images showing results comparable or better than the state-of-the-art on spotting and recognition tasks
65

Enfoques metodológicos para mejorar la precisión y fiabilidad de los sistemas de monitorización continua de glucosa en pacientes con diabetes tipo 1 y en pacientes críticos mediante técnicas lineales y no lineales

Leal Moncada, Yenny Teresa 30 July 2013 (has links)
This dissertation focuses on the development and improvement of the minimally invasive continuous glucose monitoring systems (CGMS). This dissertation gives emphasis in solving the problem of the accuracy and reliability of the blood glucose (BG) concentrations estimated by CGMS. The main novelty of this dissertation is that it takes into account the dynamic relationship between BG and interstitial glucose (IG) in the algorithms for BG estimation. Furthermore, pattern recognition and learning techniques are explored combining the information provided by the monitor itself and variables related to the patient's clinical condition, to detect correct and incorrect measurements, without requiring any reference measurement. The performance of the proposed methodological approaches has been validated with data from different clinical studies, in both diabetic and critically-ill patients / Aquesta tesi doctoral s'enfoca en el desenvolupament i millora dels sistemes de monitoratge continu de glucosa (SMCG) mínimament invasius, fent èmfasi en la resolució del problema de la precisió i fiabilitat de les concentracions de glucosa en plasma (BG) estimats pels SMCG. La principal novetat d’aquesta tesi és tenir en compte la relació dinàmica entre BG i la glucosa intersticial (IG) en els algorismes d'estimació de BG, i aplicar tècniques d'aprenentatge i reconeixement de patrons que utilitzen la informació subministrada pel propi SMCG i variables relacionades amb la condició clínica del pacient, per detectar estimacions de BG correctes i incorrectes, sense requerir de cap mesura de referència. El rendiment dels mètodes proposats s'ha validat amb dades de diferents estudis clínics, tant de malalts diabètics com de malalts crítics
66

Computationally reliable approaches of contractive MPC for discrete-time systems

Wan, Jian 30 July 2007 (has links)
La tesis pretende explorar acercamientos computacionalmente confiables y eficientes de contractivo MPC para sistemas de tiempo discreto. Dos tipos de contractivo MPC han sido estudiados: MPC con coacción contractiva obligatoria y MPC con una secuencia contractiva de conjuntos controlables. Las técnicas basadas en optimización convexa y análisis de intervalos son aplicadas para tratar MPC contractivo lineal y no lineal, respectivamente. El análisis de intervalos clásicos es ampliado a zonotopes en la geometría para diseñar un conjunto invariante de control terminal para el modo dual de MPC. También es ampliado a intervalos modales para tener en cuenta la modalidad al calcula de conjuntos controlables robustos con una interpretación semántica clara. Los instrumentos de optimización convexa y análisis de intervalos han sido combinados para mejorar la eficacia de contractive MPC para varias clases de sistemas de tiempo discreto inciertos no lineales limitados. Finalmente, los dos tipos dirigidos de contractivo MPC han sido aplicados para controlar un Torneo de Fútbol de Copa Mundial de Micro Robot (MiroSot) y un Tanque-Reactor de Mezcla Continua (CSTR), respectivamente. / The thesis aims to explore computationally reliable and efficient approaches of contractive MPC for discrete-time systems. Two types of contractive MPC have been studied: MPC with compulsory contractive constraint and MPC with a contractive sequence of controllable sets. Techniques based on convex optimization and interval analysis are applied to deal with linear and nonlinear contractive MPC, respectively. Classical interval analysis is extended to zonotopes in geometry for designing a terminal control invariant set in the dual-mode approach of MPC. It is also extended to modal intervals in modality for computing robust controllable sets with a clear semantic interpretation. The tools of convex optimization and interval analysis have been combined further to improve the efficiency of contractive MPC for various kinds of constrained nonlinear uncertain discrete-time systems. Finally, the addressed two types of contractive MPC have been applied to control a Micro Robot World Cup Soccer Tournament (MiroSot) robot and a Continuous Stirred-Tank Reactor (CSTR), respectively.
67

Application of modal interval analysis to the simulation of the behaviour of dynamic systems with uncertain parameters

Armengol Llobet, Joaquim 28 April 2000 (has links)
Els models matemàtics quantitatius són simplificacions de la realitat i per tant el comportament obtingut per simulació d'aquests models difereix dels reals. L'ús de models quantitatius complexes no és una solució perquè en la majoria dels casos hi ha alguna incertesa en el sistema real que no pot ser representada amb aquests models. Una forma de representar aquesta incertesa és mitjançant models qualitatius o semiqualitatius. Un model d'aquest tipus de fet representa un conjunt de models. La simulació del comportament de models quantitatius genera una trajectòria en el temps per a cada variable de sortida. Aquest no pot ser el resultat de la simulació d'un conjunt de models. Una forma de representar el comportament en aquest cas és mitjançant envolupants. L'envolupant exacta és complete, és a dir, inclou tots els possibles comportaments del model, icorrecta, és a dir, tots els punts dins de l'envolupant pertanyen a la sortida de, com a mínim, una instància del model. La generació d'una envolupant així normalment és una tasca molt dura que es pot abordar, per exemple, mitjançant algorismes d'optimització global o comprovació de consistència. Per aquesta raó, en molts casos s'obtenen aproximacions a l'envolupant exacta. Una aproximació completa però no correcta a l'envolupant exacta és una envolupant sobredimensionada, mentre que una envolupant correcta però no completa és subdimensionada. Aquestes propietats s'han estudiat per diferents simuladors per a sistemes incerts.
68

Improvements in the ray tracing of implicit surfaces based on interval arithmetic

Flórez Díaz, Jorge Eliécer 10 December 2008 (has links)
Las superfícies implícitas son útiles en muchas áreasde los gráficos por ordenador. Una de sus principales ventajas es que pueden ser fácilmente usadas como primitivas para modelado. Aun asi, no son muy usadas porque su visualización toma bastante tiempo. Cuando se necesita una visualización precisa, la mejor opción es usar trazado de rayos. Sin embargo, pequeñas partes de las superficies desaparecen durante la visualización. Esto ocurre por la truncación que se presenta en la representación en punto flotante de los ordenadores; algunos bits se puerden durante las operaciones matemáticas en los algoritmos de intersección. En este tesis se presentan algoritmos para solucionar esos problemas. La investigación se basa en el uso del Análisis Intervalar Modal el cual incluye herramientas para resolver problemas con incertidumbe cuantificada. En esta tesis se proporcionan los fundamentos matemáticos necesarios para el desarrollo de estos algoritmos. / Implicit surfaces are useful in many areas related to computer graphics. One of their main advantages over other representations is that they can be easily used as primitives for modeling. However, they are not widely used for this purpose because the models created with implicit surfaces take a long time to be rendered. When a precise visualization of an implicit surface is required, the best option is to use ray tracing. However, thin features can be missed in models that have thin parts. These problems are caused by the truncation performed in the floating-point representation in the computers: come bits ae lost in the mathematical operations during the intersection test. In this work, algorithms to deal with those problems are presented. The research is based on Modal Interval Analysis that includes tools for solving quantified uncertainty. Modal Interval Analysis gives the mathematical foundations used in the development of these algorithms.
69

PML - A modeling Language for Physical Knowledge Representation

Ramos González, Juan José 13 November 2003 (has links)
Esta tesis versa sobre la automatización del proceso de modelado de sistemas físicos. La automatización del modelado ha sido el objetivo común en la mayor parte de las principales herramientas disponibles hoy en día. La reutilización de modelos es probablemente el principal enfoque adoptado por dichas herramientas con el objeto de reducir el coste asociado a la tarea de modelado. No obtante, permitir la reutilización de modelos predefinidos no es una cuestión trivial y, como se discute con profucdidad en la tesis, la reutilización de modelos no puede ser garantizada cuando han sido predefinidos para representar la dinámica del sistima en un contextor físico concreto. Con el fin de evitar las restricciones sobre la reutilización derivadas de la formylación matemática de las dinámicas de interés, el lenguaje de modelado debe establecer un clara separación entre los aspectos relacionados con la representación del comportamiento físico (conocimiento declarativo) y los aspectos matemáticos relacionados con las herramientas de simulación (conocimiento procedural). El conomiento declarativo representará el comportamiento físico y será utilizado para analizar el contexto físico de reutilización de los modelos con el objeto de establecer la formulación adecuada de las dinámicas de interés. El propósito de este trabajo ha sido el diseño de un lenguaje de modelado, PML, capaz de automatizar el proceso de modelado asegurando la reusabilidad de modelos que pueden ser predefinidos de manera independiente al contexto físico don seran reutilizados. La reutilización de modelos se contempla tanto en la contrucción de nuevos modelos (modelado estructurado) como en su utilización para diferentes objetivos de experimentación. Los nuevos modelos son contruidos acoplando modelos predefinidos de acurdo a la topología física del sistema modelado. Tales modelos pueden ser manipulados para adecuarlos a distintos objetivos de experimentación, adecuándose la formulación matemática de la dinámicas de interés marcadas por dichos objetivos.PML es un lenguaje de modelado orientado a objetos diseñado para describir el comportamiento del sistema físico mediante estructuras de representación modulares (clases de modelado). La clases PML representan conceptos físicos que son familiares al modelador. El conocimiento físico declarado por la clases se utiliza para analizar los modelos estructurados, obteniéndose de manera automatizada la representación matemática de las dinámicas de interés. / The topic of this thesis is the automated modeling of physical systems. Modeling automation has been a common objective in many of the present modeling tools. Reuse of predefined models is probably the main approach adopted by many of them in order to reduce the modeling burden. However, to facilitate reuse is difficult to achieve and, as it is discussed thoroughly in the thesis, reusability of models can not be assured when they are predefined to represent the system dynamics in a particular physical context. In order to avoid the reuse constraints due to the system dynamics formulation, a modeling language should be defined with a clear separation between the physical behaviour representation aspects (declarative physical knowledge) and the computational aspects concerning to model simulation (procedural computational knowledge). The physical knowledge will represent the system behaviour and it will support the analysis of the model reusing context in order to set the system dynamics formulation. The aim of this work is the design of a modeling language, PML, able to automate the modeling process by assuring the reusability of ready-made models independently of the physical context where they have been defined. The reuse of a predefined model contemplates both the construction of new models (structured modeling) and the model usage for different experimentation purposes. New models are constructed by coupling predefined models according to the physical system topology. Such structured models are manipulated in order to obtain the representation of the system dynamics which are of interest for the experimentation purposes.PML is an object oriented modeling language designed to represent system behaviour by means of modular structures (modeling classes). The PML modeling classes describe physical concepts well-known by the modeller. The physical knowledge declared by the modeling classes is used to analyze structured models in order to generate automatically the mathematical representation of the system dynamics. The simulation model is obtained by means of an equation-based object oriented modeling language.
70

Fast Computer Vision Algorithms applied to Motion Detection and Mosaicing

Vivet Tañà, Marc 30 September 2013 (has links)
Aquesta tesi està centrada en la detecció de moviment i el seu aprofitament per la sumarització de les escenes de vídeo en imatges mosaic. Mentre construir la imatge mosaic amb càmeres pivotants és un tema ben conegut, no es aquest el cas per les càmeres amb moviment. El primer pas consisteix en alinear totes les imatges en un únic sistema de coordenades. Aquest procés, anomenat alineament d’imatges, prové de l’estimació de la transformació que projecta cada imatge de vídeo en aquest sistema de coordenades comú. La imatge mosaic es genera assignant a cada punt, un cert valor derivat de la informació transmesa per les diferents imatges amb informació sobre aquest punt. Moviment i mosaics estan profundament relacionats. La tesi s'estructura en sis capítols. Després d'una introducció als aspectes de percepció del moviment en una seqüència de vídeo i exposar el pla de la tesi, el segon capítol aborda el problema de la detecció de moviment amb càmeres estàtiques. Amb aquesta finalitat, es presenta una àmplia descripció dels algoritmes de separació del fons de la imatge descrits en la literatura. Es presenta a continuació l'algoritme de sostracció de fons desenvolupat en la tesi. Aquest algorisme combina diferents senyals visuals i utilitza un model gràfic probabilístic per garantir la coherència espai-­‐temporal per al model de fons. Aquest model representa cada píxel com una variable aleatòria amb dos estats, de fons i de primer pla. Llavors, s’utilitza un camps probabilístic de Markov (MRF) per descriure la correlació entre els píxels veïns en el volum de l'espai-­‐temps. A més a més , es presenta un marc general de combinar diferents fonts d'informació relacionades amb el moviment per tal d'augmentar la precisió de la màscara de moviment. El següent pas és fer front al problema de la detecció de moviment quan la càmera no és estàtica, que s'analitza en el capítol 3. En particular, es considera el cas sense paral·laxi. Aquest és un cas comú, en càmeres PTZ o perspectives aèries no produeixen paral·laxi de moviment. Per a compensar les transformacions afins 2D causades per la càmera es proposa utilitzar un seguiment de nucli múltiple, assumint que la major part de la trama pertany al fons. El primer pas és introduir Seguiment de Nucli Múltiple i es descriu com es pot formular per aquest propòsit en particular. A continuació, la generació del mosaic de fons es defineix i es valida la capacitat d'adaptació a través del temps. El capítol 4 presenta un nou algorisme d'alineació de imatges, el Directe-­‐Local, Indirecte-­‐Global (DLIG), que compensa el moviment 2D mitjançant una transformació projectiva. La idea clau de l'alineació DLIG és dividir el problema d'alineació de imatges en el problema de registrar un conjunt de trossos d'imatge espacialment relacionats. El registrament d’un tros d’imatge es realitza iterativament imposant tan una bona concordança local com una bona coherència espacial global. L’alineament d’un tros d’imatge es porta a terme utilitzant un algoritme de seguiment, de manera que es molt eficient per aconseguir una concordança local. L'algorisme utilitza el registrat de trossos d’imatge per obtenir un registrat multiimatge i utilitza les coordenades mosaic per relacionar el tros actual de la imatge a trossos provinents de altres imatges que comparteixen parcialment el camp de vista. La registració multimatge impedeix el problema d'acumulació d'errors, un dels problemes més importants en mosaics. També es mostra com incrustar un algoritme de seguiment basat en nucli per tal d'obtenir un algoritme de construcció de mosaics precís i eficient. El capítol 5 encara el problema de la generació de mosaics quan l'escena gravada conté paral·laxi de moviment. La solució desenvolupada proposa alinear la seqüència de vídeo en un volum d'espai-­‐temps basat en el seguiment eficient de característiques utilitzant un algoritme de seguiment de nucli. El càlcul és ràpid i, com el moviment, es calcula només per a unes poques regions de la imatge, i tot i així proporciona una estimació del moviment 3D precisa. Aquest càlcul és més ràpid i més precís que l’estat de l’art que es basen en un mètode d'alineació directa. La síntesi de la imatge del mosaic encara amb el mètode innovador presentat a la tesi barcode Blending , un nou mètode per utilitzar el blending piràmidal en les imatges mosaic, que és molt eficient. Barcode Blending permet superar la complexitat de la construcció de piràmides per a múltiples tires estretes, en base a combinar totes les tires en una sola etapa de mescla. Finalment la tesi acaba am les conclusions i el treball futur a fer en el capítol sisè. / This thesis is focused on motion detection and its use for the summarization of video scenes in mosaic images. While mosaicing with pivoting cameras is a well-known topic, this is not the case with full motion cameras. The first step is to align all the images into a single coordinate system. This process, named image alignment, comes from the estimation of the transform that projects every video image into this common coordinate system. The mosaic image is generated assigning to each point some value derived from the information conveyed for the different images with information about that point. Motion and Mosaicing are deeply related. The thesis is organized in six chapters. After an introduction to the perceptual aspects of motion in a video sequence and exposing the plan of the thesis, the second chapter deals with the problem of detecting motion using static cameras. To this end, an extensive description of the main background subtraction algorithms in the literature is presented. The original background subtraction algorithm developed in the thesis is presented. This algorithm combines different visual cues and uses a probabilistic graphical model to provide spatio-temporal consistency to the background model. This model represents each pixel as a random variable with two states, background and foreground. Then, Markov Random Fields (MRF) is used to describe the correlation between neighbouring pixels in the space-time volume. In addition, a general framework to combine different motion related information sources is presented in order to increase the accuracy of the motion mask. The next step is to face the problem of detecting motion when the camera is not static, which is analysed in the chapter 3. In particular, the case with no parallax is considered. This is a common case as PTZ cameras or aerial perspectives do not produce motion parallax. It is proposed to compensate for 2D affine transformations caused by the camera by using Multiple Kernel Tracking, assuming that the major part of the frame belongs to the background. The first step is to introduce Multiple Kernel Tracking describing how it can be formulated for this particular purpose. Then the generation of the background mosaic is defined and it adaptability over time. Chapter 4 presents a new frame alignment algorithm, the Direct Local Indirect global (DLIG), which compensates the 2D motion using a projective transformation. The key idea of the DLIG alignment is to divide the frame alignment problem into the problem of registering a set of spatially related image patches. The registration is iteratively computed by sequentially imposing a good local match and global spatial coherence. The patch registration is performed using a tracking algorithm, so a very efficient local matching can be achieved. The algorithm uses the patch-based registration to obtain multiframe registration, using the mosaic coordinates to relate the current frame to patches from different frames that partially share the current field of view. Multiframe registration prevents the error accumulation problem, one of the most important problems in mosaicing. It is also show how to embed a Kernel Tracking algorithm in order to obtain a precise and efficient mosaicing algorithm. The chapter 5 moves to the problem of generating mosaics when the recorded scene contains motion parallax. The developed solution proposes to align the video sequence in a space-time volume based on efficient feature tracking using a Kernel Tracking algorithm. Computation is fast and, as the motion, is computed only for a few regions of the image, yet still gives accurate 3D motion. This computation is faster and more accurate than the previous work that is based on a direct alignment method. The synthesis of the mosaic image is faced with the novel Barcode Blending , a new approach for using pyramid blending in video mosaics, which is very efficient. Barcode Blending overcomes the complexity of building pyramids for multiple narrow strips, combining all strips in a single blending step. This thesis finishes with the conclusions and future work in chapter 6.

Page generated in 0.081 seconds