Spelling suggestions: "subject:"cibernética""
61 |
Design and validation of a structural health monitoring system for aeronautical structures.Tibaduiza Burgos, Diego Alexander 18 January 2013 (has links)
Structural Health Monitoring (SHM) is an area where the main objective is the verification of the state or the health of the structures in order to ensure proper performance and maintenance cost savings using a sensor network attached to the structure, continuous monitoring and algorithms. Different benefits are derived from the implementation of SHM, some of them are: knowledge about the behavior of the structure under different loads and different environmental changes, knowledge of the current state in order to verify the integrity of the structure and determine whether a structure can work properly or whether it needs to be maintained or replaced and, therefore, to reduce maintenance costs. The paradigm of damage identification (comparison between the data collected from the structure without damages and the current
structure in orderto determine if there are any changes) can be tackled as a pattern recognition problem. Some statistical techniques as Principal Component Analysis (PCA) or Independent Component Analysis (ICA) are very useful for this purpose because they allow obtaining the most relevant information from a large amount of variables.
This thesis uses an active piezoelectric system to develop statistical data driven approaches for the detection, localization and classification of damages in structures. This active piezoelectric system is permanently attached to the surface of the structure under test in order to apply vibrational excitations and sensing the dynamical responses propagated through the structure at different points. As pattern recognition technique, PCA is used to perform the main task of the proposed methodology: to build a base-line model of the structure without damage and subsequentlyto compare the data from the current structure (under test) with this model. Moreover, different damage indices are calculated to detect abnormalities in the structure under test. Besides, the localization of the damage can be determined by means of the contribution of each sensor to each index. This contribution is calculated by several different methods and their comparison is performed. To classify different damages, the damage detection methodology is extended using a Self-Organizing Map (SOM), which is properly trained and validated to build a pattern baseline model using projections of the data onto the PCAmodel and damage detection indices. This baseline is further used as a reference for blind diagnosis tests of structures. Additionally, PCA is replaced by ICAas pattern recognition technique. A comparison between the two methodologies is performed highlighting advantages and disadvantages. In order to study the performance of the damage classification methodology under different scenarios, the methodology is tested using data from a structure under several different temperatures.
The methodologies developed in this work are tested and validated using different structures, in particular an aircraft turbine blade, an aircraft wing skeleton, an aircraft fuselage,some aluminium plates and some composite matarials plates. / La monitorización de daños en estructuras (SHM por sus siglas en inglés) es un área que tiene como principal objetivo la verificación del estado o la salud de la estructura con el fin de asegurar el correcto funcionamiento de esta y ahorrar costos de mantenimiento.
Para esto se hace uso de sensores que son adheridos a la estructura, monitorización continua y algoritmos. Diferentes beneficios se obtienen de la aplicación de SHM, algunos de ellos son: el conocimiento sobre el desempeño de la estructura cuando esta es sometida a diversas cargas y cambios ambientales, el conocimiento del estado actual de la estructura con el fin de determinar la integridad de la estructura y definir si esta puede trabajar adecuadamente o si por el contrario debe ser reparada o reemplazada con el correspondiente beneficio del ahorro de gastos de mantenimiento. El paradigma de la identificación de daños (comparación entre los datos obtenidos de la estructura sin daños y la estructura en un estado posterior para determinar cambios) puede ser abordado como un problema de reconocimiento de patrones. Algunas técnicas estadísticas tales como Análisis de Componentes Principales (PCA por sus siglas en inglés) o Análisis de Componentes Independientes (ICA por sus siglas en ingles) son muy útiles para este propósito puesto que permiten obtener la información más relevante de una gran cantidad de variables.
Esta tesis hace uso de un sistema piezoeléctrico activo para el desarrollo de algoritmos estadísticos de manejo de datos para la detección, localización y clasificación de daños en estructuras. Este sistema piezoeléctrico activo está permanentemente adherido a la superficie de la estructura bajo prueba con el objeto de aplicar señales vibracionales de excitación y recoger las respuestas dinámicas propagadas a través de la estructura en diferentes puntos.
Como técnica de reconocimiento de patrones se usa Análisis de Componentes Principales para realizar la tarea principal de la metodología propuesta: construir un modelo PCA base de la
estructura sin daño y posteriormente compararlo con los datos de la estructura bajo prueba.
Adicionalmente, algunos índices de daños son calculados para detectar anormalidades en la estructura bajo prueba. Para la localización de daños se usan las contribuciones de cada sensor
a cada índice, las cuales son calculadas mediante varios métodos de contribución y comparadas para mostrar sus ventajas y desventajas.
Para la clasificación de daños, se amplia la metodología de detección añadiendo el uso de Mapas auto-organizados, los cuales son adecuadamente entrenados y validados para construir un modelo patrón base usando proyecciones de los datos sobre el modelo PCA base e índices de detección de daños. Este patrón es usado como referencia para realizar un diagnóstico ciego de la estructura. Adicionalmente, dentro de la metodología propuesta, se utiliza ICA en lugar de PCA como técnica de reconocimiento de patrones. Se incluye también una comparación entre la aplicación de las dos técnicas para mostrar las ventajas y desventajas.
Para estudiar el desempeño de la metodología de clasificación de daños bajo diferentes escenarios, esta se prueba usando datos obtenidos de una estructura sometida a diferentes temperaturas.
Las metodologías desarrolladas en este trabajo fueron probadas y validadas usando diferentes estructuras, en particular un álabe de turbina, un esqueleto de ala y un fuselaje de avión, así como algunas placas de aluminio y de material compuesto
|
62 |
Lógica difusa aplicada a conjuntos imbalanceados: aplicación a la detección del Síndrome de DownSoler Ruiz, Vicenç 23 January 2007 (has links)
El problema a resolver en esta Tesis Doctoral consiste en hallar una solución que mejore la clasificación que se consigue actualmente para el problema de la detección precoz del síndrome de Down en fetos, durante el segundo trimestre de embarazo, con técnicas no invasivas.El conjunto de datos usado para la detección del síndrome de Down es de dos clases y de tipo imbalanceado, es decir, que hay una gran diferencia entre el número de casos correspondientes a fetos que no son afectados por el síndrome de Down y los que sí lo son.Para tratar de mejorar la clasificación que se logra en la actualidad, se ha desarrollado un nuevo método de Soft Computing basado en Lógica Difusa diseñado para trabajar con conjuntos de datos imbalanceados. Este método permite, no sólo hallar una buena solución, sino también extraer el conocimiento adquirido.El método desarrollado se denomina FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) y se basa en la idea de que la solución generalice lo máximo posible, para evitar el efecto de sobreaprendizaje ("overfitting") que se produce en la mayoría de métodos al tratar de trabajar con un conjunto de datos imbalanceado. Para proporcionar las herramientas necesarias al método para que generalice, se ha desarrollado un algoritmo llamado ReRecBF, que forma parte del método FLAGID. Este algoritmo transforma las funciones de pertenencia obtenidas a partir de los datos por otro algoritmo ya existente llamado DDA/RecBF. Esta transformación consiste en convertir las funciones de pertenencia generadas a partir de los casos de la clase-menor en funciones triangulares, dejar como funciones trapezoidales las funciones de pertenencia de la clase-mayor y dividir las funciones de pertenencia que se solapen. Finalmente, debido a que se generan nuevas funciones de pertenencia, un algoritmo genético es usado simplemente para hallar las reglas que más se ajusten a las nuevas funciones.Los resultados obtenidos han mejorado la tasa de falsos positivos en el conjunto de datos del síndrome de Down hasta el 4%, con una tasa de verdaderos positivos del 60%. Esta es la primera vez que un método consigue bajar del 5% de falsos positivos con esa tasa de aciertos en los verdaderos positivos. Además, se ha extraído el conocimiento del resultado, y éste ha coincidido, en su mayoría, con el conocimiento existente en el campo de la medicina. Otro hecho remarcable es que se ha comprobado que el método también es útil para trabajar con conjuntos de datos imbalanceados.Finalmente, los resultados de este trabajo realizan aportaciones nuevas en el campo de la medicina, como son la importancia de la edad gestacional del feto en la detección de los casos positivos y que el peso de la madre tiene más importancia que simplemente el calibrar los dos indicadores hormonales AFP y hCG. / The problem to solve in this PhD Thesis consists of finding a solution that improves the classification that is obtained at the moment for the problem of the detection of the Down syndrome in fetuses, during the second trimester of pregnancy, with non-invasive techniques.The dataset used for the detection of the Down syndrome is imbalanced and two classes type, that is, that there are a great difference between the number of cases corresponding to fetuses that are not affected by the Down syndrome and those that are affected.In order to try to improve the classification that is obtained at the present time, a new method of Soft Computing has been developed based on Fuzzy Logic and designed to work with imbalanced datasets. This method allows, not only to find a good solution, but also to extract the acquired knowledge. The developed method is called FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) and it is based on the idea that the solution tries to generalize at maximum, avoiding the overfitting effect that takes place in most of methods when trying to work with an imbalanced dataset. In order to provide the necessary tools to the method that allows it to generalize, an algorithm called ReRecBF has been developed, which is a part of method FLAGID. This algorithm transforms the membership functions obtained from the data by another existing algorithm, called DDA/RecBF. This transformation consists of turning the membership functions generated from the cases of the minor-class in triangular functions, leaving like trapezoidal functions the membership functions of the major-class, dividing the membership functions that are overlapped. Finally, because new membership functions are generated, a genetic algorithm is used simply to find the rules that adjust more to the new functions.The results obtained have improved the rate of false positives in the data set of the Down syndrome until 4%, with a rate of true positives of 60%. This is the first time that a method is able to achieve a lower rate of 5% of false positives with that rate of successes in the true positives. In addition, the knowledge of the result has been extracted, and this one has agreed, in its majority, with the existing knowledge in the field of the medicine. Another remarkable fact is that it has been verified that the method also is useful to work with imbalanced datasets. Finally, the results of this work make new contributions in the field of the medicine, like the importance of the gestational age of the fetus in the detection of the positive cases and that the weight of the mother has more indicating importance than simply calibrating both hormonal AFP and hCG.
|
63 |
Color for Object Detection and Action RecognitionAnwer, Rao Muhammad 30 April 2013 (has links)
Detectar objetos en imágenes es un problema central en el campo de la visión por computador. El marco de detección basado en modelos de partes deformable es actualmente el más eficaz. Generalmente, HOG es el descriptor de imágenes a partir del cual se construyen esos modelos. El reconocimiento de acciones humanas es otro de los tópicos de más interés actualmente en el campo de la visión por computador. En este caso, los modelos usados siguen la idea de conjuntos de palabras (visuales), en inglés bag-of-words, en este caso siendo SIFT uno de los descriptor de imágenes más usados para dar soporte a la formación de esos modelos. En este contexto hay una información muy relevante para el sistema visual humano que normalmente está infrautilizada tanto en la detección de objetos como en el reconocimiento de acciones, hablamos del color. Es decir, tanto HOG como SIFT suelen ser aplicados al canal de luminancia o algún tipo de proyección de los canales de color que también lo desechan. Globalmente esta tesis se centra en incorporar color como fuente de información adicional para mejorar tanto la detección objetos como el reconocimiento de acciones.
En primer lugar la tesis analiza el problema de la detección de personas en fotografías. En particular nos centramos en analizar la aportación del color a los métodos del estado del arte. A continuación damos el salto al problema de la detección de objetos en general, no solo personas. Además, en lugar de introducir el color en el nivel más bajo de la representación de la imagen, lo cual incrementa la dimensión de la representación provocando un mayor coste computacional y la necesidad de más ejemplos de aprendizaje, en esta tesis nos centramos en introducir el color en un nivel más alto de la representación. Esto no es trivial ya que el sistema en desarrollo tiene que aprender una serie de atributos de color que sean lo suficientemente discriminativos para cada tarea. En particular, en esta tesis combinamos esos atributos de color con los tradicionales atributos de forma y lo aplicamos de forma que mejoramos el estado del arte de la detección de objetos. Finalmente, nos centramos en llevar las ideas incorporadas para la tarea de detección a la tarea de reconocimiento de acciones. En este caso también demostramos cómo la incorporación del color, tal y como proponemos en esta tesis, permite mejorar el estado del arte. / Recognizing object categories in real world images is a challenging problem in computer vision. The deformable part based framework is currently the most successful approach for object detection. Generally, HOG are used for image representation within the part-based framework. For action recognition, the bag-of-word framework has shown to provide promising results. Within the bag-of-words framework, local image patches are described by SIFT descriptor. Contrary to object detection and action recognition, combining color and shape has shown to provide the best performance for object and scene recognition.
In the first part of this thesis, we analyze the problem of person detection in still images. Standard person detection approaches rely on intensity based features for image representation while ignoring the color. Channel based descriptors is one of the most commonly used approaches in object recognition. This inspires us to evaluate incorporating color information using the channel based fusion approach for the task of person detection.
In the second part of the thesis, we investigate the problem of object detection in still images. Due to high dimensionality, channel based fusion increases the computational cost. Moreover, channel based fusion has been found to obtain inferior results for object category where one of the visual varies significantly. On the other hand, late fusion is known to provide improved results for a wide range of object categories. A consequence of late fusion strategy is the need of a pure color descriptor. Therefore, we propose to use Color attributes as an explicit color representation for object detection. Color attributes are compact and computationally efficient. Consequently color attributes are combined with traditional shape features providing excellent results for object detection task.
Finally, we focus on the problem of action detection and classification in still images. We investigate the potential of color for action classification and detection in still images. We also evaluate different fusion approaches for combining color and shape information for action recognition. Additionally, an analysis is performed to validate the contribution of color for action recognition. Our results clearly demonstrate that combining color and shape information significantly improve the performance of both action classification and detection in still images.
|
64 |
Learning to represent handwritten shapes and words for matching and recognitionAlmazán, Jon 21 November 2014 (has links)
La escritura es una de las formas más importantes de comunicación y durante siglos ha sido el
método ma ́s fiable para preservar conocimiento. Sin embargo, a pesar del reciente desarrollo de las
imprentas y dispositivos, la escritura manuscrita todavía se utiliza ampliamente para tomar notas,
hacer anotaciones, o dibujar bocetos. Con el fin de hacerlos fácilmente accesibles, hay una enorme
cantidad de documentos escritos a mano, algunos de ellos con un valor cultural incalculable, que
han sido recientemente digitalizados. Esto ha hecho necesario el desarrollo de métodos capaces de
extraer información de este tipo de imágenes.
Transferir a los ordenadores la capacidad de comprender y reconocer texto y formas escritas a mano
ha sido el objetivo de muchos investigadores debido a su gran importancia para muchos campos
diferentes. Sin embargo, el diseño de buenas representaciones para lidiar con formas manuscritas es
un problema muy difícil debido a la gran variabilidad en este tipo de formas. Una de las
consecuencias de trabajar con formas escritas a mano es que necesitamos representaciones que sean
robustas, es decir, capaces de adaptarse a la gran variabilidad interna de la clase. Necesitamos
representaciones que sean discriminativas, es decir, capaces de aprender cuáles son las diferencias
entre las clases. Y necesitamos representaciones que sean eficientes, es decir, capaces de ser
calculadas y comparadas con rapidez. Desafortunadamente, las técnicas actuales de representación
de formas manuscritas para la recuperación y el reconocimiento no cumplen todos o algunos de
estos requisitos.
En esta tesis nos centramos en el problema de aprender a representar formas manuscritas dirigido a
tareas de recuperación y reconocimiento. En concreto, en la primera parte de la tesis, nos centramos
en el problema general de la representación de formas manuscritas para clasificación y
reconocimiento. Primero presentamos un descriptor de forma basado en una rejilla deformable que
se adapta a grandes deformaciones y donde las celdas de la cuadrícula se utilizan para extraer
diferentes características. Seguidamente, proponemos utilizar este descriptor para aprender modelos
estadísticos basados en el Active Appearance Model, que aprende de forma conjunta la variabilidad
en la estructura y la textura de una determinada clase. En la segunda parte nos centramos en una
aplicación concreta, el problema de word spotting, donde el objetivo es encontrar todas las
instancias de una palabra dada en un conjunto de imágenes. En primer lugar, abordamos el
problema sin segmentación previa y proponemos un enfoque no supervisado, basado en ventana
deslizante que supera el estado del arte en dos datasets públicos. En segundo lugar, se aborda el
problema de word spotting con varios escritores, donde la variabilidad de palabras aumenta
exponencialmente. Se describe un método en el que las imágenes de texto y cadenas de texto se
proyectan en un subespacio vectorial común, y donde aquellos vectores que representan la misma
palabra están más próximos. Esto se logra gracias a una combinación de label embedding y
aprendizaje de atributos, y una regresión a subespacio común. Evaluamos nuestro método en bases
de datos públicas de documentos manuscritos e imágenes naturales que muestran resultados
comparables o mejores que el estado del arte en tareas de búsqueda y reconocimiento. / Writing is one of the most important forms of communication and for centuries, handwriting had
been the most reliable way to preserve knowledge. However, despite the recent development of
printing houses and electronic devices, handwriting is still broadly used for taking notes, doing
annotations, or sketching ideas. In order to be easily accessed, there is a huge amount of
handwritten documents, some of them with uncountable cultural value, that have been recently
digitized. This has made necessary the development of methods able to extract information from
these document images.
Transferring the ability of understanding handwritten text or recognizing handwritten shapes to
computers has been the goal of many researches due to its huge importance for many different
fields. However, designing good representations to deal with handwritten shapes, e.g. symbols or
words, is a very challenging problem due to the large variability of these kinds of shapes. One of the
consequences of working with handwritten shapes is that we need representations to be robust, i.e.,
able to adapt to large intra-class variability. We need representations to be discriminative, i.e., able
to learn what are the differences between classes. And, we need representations to be efficient, i.e.,
able to be rapidly computed and compared. Unfortunately, current techniques of handwritten shape
representation for matching and recognition do not fulfill some or all of these requirements.
Through this thesis we focus on the problem of learning to represent handwritten shapes aimed at
retrieval and recognition tasks. Specifically, on the first part of the thesis, we focus on the general
problem of representing handwritten shapes for classification and matching. We first present a novel
shape descriptor based on a deformable grid that deals with large deformations by adapting to the
shape and where the cells of the grid can be used to ex- tract different features. Then, we propose to
use this descriptor to learn statistical models, based on the Active Appearance Model, that jointly
learns the variability in structure and texture of a given shape class. Then, on the second part, we
focus on a concrete application, the problem of word spotting, where the goal is to find all instances
of a query word in a dataset of images. First, we address the segmentation-free problem and propose
an unsupervised, sliding-window-based approach that achieves state-of-the-art results in two public
datasets. Second, we address the more challenging multi-writer problem, where the variability in
words exponentially increases. We describe an approach in which both word images and text strings
are embedded in a common vectorial subspace, and where those that represent the same word are
close together. This is achieved by a combination of label embedding and attributes learning, and a
common subspace regression. This leads to a low- dimensional, unified representation of word
images and strings, resulting in a method that allows one to perform either image and text searches,
as well as image transcription, in a unified framework. We test our approach on four public datasets
of both handwritten documents and natural images showing results comparable or better than the
state-of-the-art on spotting and recognition tasks
|
65 |
Enfoques metodológicos para mejorar la precisión y fiabilidad de los sistemas de monitorización continua de glucosa en pacientes con diabetes tipo 1 y en pacientes críticos mediante técnicas lineales y no linealesLeal Moncada, Yenny Teresa 30 July 2013 (has links)
This dissertation focuses on the development and improvement of the minimally invasive continuous glucose monitoring systems (CGMS). This dissertation gives emphasis in solving the problem of the accuracy and reliability of the blood glucose (BG) concentrations estimated by CGMS. The main novelty of this dissertation is that it takes into account the dynamic relationship between BG and interstitial glucose (IG) in the algorithms for BG estimation. Furthermore, pattern recognition and learning techniques are explored combining the information provided by the monitor itself and variables related to the patient's clinical condition, to detect correct and incorrect measurements, without requiring any reference measurement. The performance of the proposed methodological approaches has been validated with data from different clinical studies, in both diabetic and critically-ill patients / Aquesta tesi doctoral s'enfoca en el desenvolupament i millora dels sistemes de monitoratge continu de glucosa (SMCG) mínimament invasius, fent èmfasi en la resolució del problema de la precisió i fiabilitat de les concentracions de glucosa en plasma (BG) estimats pels SMCG. La principal novetat d’aquesta tesi és tenir en compte la relació dinàmica entre BG i la glucosa intersticial (IG) en els algorismes d'estimació de BG, i aplicar tècniques d'aprenentatge i reconeixement de patrons que utilitzen la informació subministrada pel propi SMCG i variables relacionades amb la condició clínica del pacient, per detectar estimacions de BG correctes i incorrectes, sense requerir de cap mesura de referència. El rendiment dels mètodes proposats s'ha validat amb dades de diferents estudis clínics, tant de malalts diabètics com de malalts crítics
|
66 |
Computationally reliable approaches of contractive MPC for discrete-time systemsWan, Jian 30 July 2007 (has links)
La tesis pretende explorar acercamientos computacionalmente confiables y eficientes de contractivo MPC para sistemas de tiempo discreto. Dos tipos de contractivo MPC han sido estudiados: MPC con coacción contractiva obligatoria y MPC con una secuencia contractiva de conjuntos controlables. Las técnicas basadas en optimización convexa y análisis de intervalos son aplicadas para tratar MPC contractivo lineal y no lineal, respectivamente. El análisis de intervalos clásicos es ampliado a zonotopes en la geometría para diseñar un conjunto invariante de control terminal para el modo dual de MPC. También es ampliado a intervalos modales para tener en cuenta la modalidad al calcula de conjuntos controlables robustos con una interpretación semántica clara. Los instrumentos de optimización convexa y análisis de intervalos han sido combinados para mejorar la eficacia de contractive MPC para varias clases de sistemas de tiempo discreto inciertos no lineales limitados. Finalmente, los dos tipos dirigidos de contractivo MPC han sido aplicados para controlar un Torneo de Fútbol de Copa Mundial de Micro Robot (MiroSot) y un Tanque-Reactor de Mezcla Continua (CSTR), respectivamente. / The thesis aims to explore computationally reliable and efficient approaches of contractive MPC for discrete-time systems. Two types of contractive MPC have been studied: MPC with compulsory contractive constraint and MPC with a contractive sequence of controllable sets. Techniques based on convex optimization and interval analysis are applied to deal with linear and nonlinear contractive MPC, respectively. Classical interval analysis is extended to zonotopes in geometry for designing a terminal control invariant set in the dual-mode approach of MPC. It is also extended to modal intervals in modality for computing robust controllable sets with a clear semantic interpretation. The tools of convex optimization and interval analysis have been combined further to improve the efficiency of contractive MPC for various kinds of constrained nonlinear uncertain discrete-time systems. Finally, the addressed two types of contractive MPC have been applied to control a Micro Robot World Cup Soccer Tournament (MiroSot) robot and a Continuous Stirred-Tank Reactor (CSTR), respectively.
|
67 |
Application of modal interval analysis to the simulation of the behaviour of dynamic systems with uncertain parametersArmengol Llobet, Joaquim 28 April 2000 (has links)
Els models matemàtics quantitatius són simplificacions de la realitat i per tant el comportament obtingut per simulació d'aquests models difereix dels reals. L'ús de models quantitatius complexes no és una solució perquè en la majoria dels casos hi ha alguna incertesa en el sistema real que no pot ser representada amb aquests models. Una forma de representar aquesta incertesa és mitjançant models qualitatius o semiqualitatius. Un model d'aquest tipus de fet representa un conjunt de models. La simulació del comportament de models quantitatius genera una trajectòria en el temps per a cada variable de sortida. Aquest no pot ser el resultat de la simulació d'un conjunt de models. Una forma de representar el comportament en aquest cas és mitjançant envolupants. L'envolupant exacta és complete, és a dir, inclou tots els possibles comportaments del model, icorrecta, és a dir, tots els punts dins de l'envolupant pertanyen a la sortida de, com a mínim, una instància del model. La generació d'una envolupant així normalment és una tasca molt dura que es pot abordar, per exemple, mitjançant algorismes d'optimització global o comprovació de consistència. Per aquesta raó, en molts casos s'obtenen aproximacions a l'envolupant exacta. Una aproximació completa però no correcta a l'envolupant exacta és una envolupant sobredimensionada, mentre que una envolupant correcta però no completa és subdimensionada. Aquestes propietats s'han estudiat per diferents simuladors per a sistemes incerts.
|
68 |
Improvements in the ray tracing of implicit surfaces based on interval arithmeticFlórez Díaz, Jorge Eliécer 10 December 2008 (has links)
Las superfícies implícitas son útiles en muchas áreasde los gráficos por ordenador. Una de sus principales ventajas es que pueden ser fácilmente usadas como primitivas para modelado. Aun asi, no son muy usadas porque su visualización toma bastante tiempo. Cuando se necesita una visualización precisa, la mejor opción es usar trazado de rayos. Sin embargo, pequeñas partes de las superficies desaparecen durante la visualización. Esto ocurre por la truncación que se presenta en la representación en punto flotante de los ordenadores; algunos bits se puerden durante las operaciones matemáticas en los algoritmos de intersección. En este tesis se presentan algoritmos para solucionar esos problemas. La investigación se basa en el uso del Análisis Intervalar Modal el cual incluye herramientas para resolver problemas con incertidumbe cuantificada. En esta tesis se proporcionan los fundamentos matemáticos necesarios para el desarrollo de estos algoritmos. / Implicit surfaces are useful in many areas related to computer graphics. One of their main advantages over other representations is that they can be easily used as primitives for modeling. However, they are not widely used for this purpose because the models created with implicit surfaces take a long time to be rendered. When a precise visualization of an implicit surface is required, the best option is to use ray tracing. However, thin features can be missed in models that have thin parts. These problems are caused by the truncation performed in the floating-point representation in the computers: come bits ae lost in the mathematical operations during the intersection test. In this work, algorithms to deal with those problems are presented. The research is based on Modal Interval Analysis that includes tools for solving quantified uncertainty. Modal Interval Analysis gives the mathematical foundations used in the development of these algorithms.
|
69 |
PML - A modeling Language for Physical Knowledge RepresentationRamos González, Juan José 13 November 2003 (has links)
Esta tesis versa sobre la automatización del proceso de modelado de sistemas físicos. La automatización del modelado ha sido el objetivo común en la mayor parte de las principales herramientas disponibles hoy en día. La reutilización de modelos es probablemente el principal enfoque adoptado por dichas herramientas con el objeto de reducir el coste asociado a la tarea de modelado. No obtante, permitir la reutilización de modelos predefinidos no es una cuestión trivial y, como se discute con profucdidad en la tesis, la reutilización de modelos no puede ser garantizada cuando han sido predefinidos para representar la dinámica del sistima en un contextor físico concreto. Con el fin de evitar las restricciones sobre la reutilización derivadas de la formylación matemática de las dinámicas de interés, el lenguaje de modelado debe establecer un clara separación entre los aspectos relacionados con la representación del comportamiento físico (conocimiento declarativo) y los aspectos matemáticos relacionados con las herramientas de simulación (conocimiento procedural). El conomiento declarativo representará el comportamiento físico y será utilizado para analizar el contexto físico de reutilización de los modelos con el objeto de establecer la formulación adecuada de las dinámicas de interés. El propósito de este trabajo ha sido el diseño de un lenguaje de modelado, PML, capaz de automatizar el proceso de modelado asegurando la reusabilidad de modelos que pueden ser predefinidos de manera independiente al contexto físico don seran reutilizados. La reutilización de modelos se contempla tanto en la contrucción de nuevos modelos (modelado estructurado) como en su utilización para diferentes objetivos de experimentación. Los nuevos modelos son contruidos acoplando modelos predefinidos de acurdo a la topología física del sistema modelado. Tales modelos pueden ser manipulados para adecuarlos a distintos objetivos de experimentación, adecuándose la formulación matemática de la dinámicas de interés marcadas por dichos objetivos.PML es un lenguaje de modelado orientado a objetos diseñado para describir el comportamiento del sistema físico mediante estructuras de representación modulares (clases de modelado). La clases PML representan conceptos físicos que son familiares al modelador. El conocimiento físico declarado por la clases se utiliza para analizar los modelos estructurados, obteniéndose de manera automatizada la representación matemática de las dinámicas de interés. / The topic of this thesis is the automated modeling of physical systems. Modeling automation has been a common objective in many of the present modeling tools. Reuse of predefined models is probably the main approach adopted by many of them in order to reduce the modeling burden. However, to facilitate reuse is difficult to achieve and, as it is discussed thoroughly in the thesis, reusability of models can not be assured when they are predefined to represent the system dynamics in a particular physical context. In order to avoid the reuse constraints due to the system dynamics formulation, a modeling language should be defined with a clear separation between the physical behaviour representation aspects (declarative physical knowledge) and the computational aspects concerning to model simulation (procedural computational knowledge). The physical knowledge will represent the system behaviour and it will support the analysis of the model reusing context in order to set the system dynamics formulation. The aim of this work is the design of a modeling language, PML, able to automate the modeling process by assuring the reusability of ready-made models independently of the physical context where they have been defined. The reuse of a predefined model contemplates both the construction of new models (structured modeling) and the model usage for different experimentation purposes. New models are constructed by coupling predefined models according to the physical system topology. Such structured models are manipulated in order to obtain the representation of the system dynamics which are of interest for the experimentation purposes.PML is an object oriented modeling language designed to represent system behaviour by means of modular structures (modeling classes). The PML modeling classes describe physical concepts well-known by the modeller. The physical knowledge declared by the modeling classes is used to analyze structured models in order to generate automatically the mathematical representation of the system dynamics. The simulation model is obtained by means of an equation-based object oriented modeling language.
|
70 |
Fast Computer Vision Algorithms applied to Motion Detection and MosaicingVivet Tañà, Marc 30 September 2013 (has links)
Aquesta
tesi
està
centrada
en
la
detecció
de
moviment
i
el
seu
aprofitament
per
la
sumarització
de
les
escenes
de
vídeo
en
imatges
mosaic.
Mentre
construir
la
imatge
mosaic
amb
càmeres
pivotants
és
un
tema
ben
conegut,
no
es
aquest
el
cas
per
les
càmeres
amb
moviment.
El
primer
pas
consisteix
en
alinear
totes
les
imatges
en
un
únic
sistema
de
coordenades.
Aquest
procés,
anomenat
alineament
d’imatges,
prové
de
l’estimació
de
la
transformació
que
projecta
cada
imatge
de
vídeo
en
aquest
sistema
de
coordenades
comú.
La
imatge
mosaic
es
genera
assignant
a
cada
punt,
un
cert
valor
derivat
de
la
informació
transmesa
per
les
diferents
imatges
amb
informació
sobre
aquest
punt.
Moviment
i
mosaics
estan
profundament
relacionats.
La
tesi
s'estructura
en
sis
capítols.
Després
d'una
introducció
als
aspectes
de
percepció
del
moviment
en
una
seqüència
de
vídeo
i
exposar
el
pla
de
la
tesi,
el
segon
capítol
aborda
el
problema
de
la
detecció
de
moviment
amb
càmeres
estàtiques.
Amb
aquesta
finalitat,
es
presenta
una
àmplia
descripció
dels
algoritmes
de
separació
del
fons
de
la
imatge
descrits
en
la
literatura.
Es
presenta
a
continuació
l'algoritme
de
sostracció
de
fons
desenvolupat
en
la
tesi.
Aquest
algorisme
combina
diferents
senyals
visuals
i
utilitza
un
model
gràfic
probabilístic
per
garantir
la
coherència
espai-‐temporal
per
al
model
de
fons.
Aquest
model
representa
cada
píxel
com
una
variable
aleatòria
amb
dos
estats,
de
fons
i
de
primer
pla.
Llavors,
s’utilitza
un
camps
probabilístic
de
Markov
(MRF)
per
descriure
la
correlació
entre
els
píxels
veïns
en
el
volum
de
l'espai-‐temps.
A
més
a
més
,
es
presenta
un
marc
general
de
combinar
diferents
fonts
d'informació
relacionades
amb
el
moviment
per
tal
d'augmentar
la
precisió
de
la
màscara
de
moviment.
El
següent
pas
és
fer
front
al
problema
de
la
detecció
de
moviment
quan
la
càmera
no
és
estàtica,
que
s'analitza
en
el
capítol
3.
En
particular,
es
considera
el
cas
sense
paral·laxi.
Aquest
és
un
cas
comú,
en
càmeres
PTZ
o
perspectives
aèries
no
produeixen
paral·laxi
de
moviment.
Per
a
compensar
les
transformacions
afins
2D
causades
per
la
càmera
es
proposa
utilitzar
un
seguiment
de
nucli
múltiple,
assumint
que
la
major
part
de
la
trama
pertany
al
fons.
El
primer
pas
és
introduir
Seguiment
de
Nucli
Múltiple
i
es
descriu
com
es
pot
formular
per
aquest
propòsit
en
particular.
A
continuació,
la
generació
del
mosaic
de
fons
es
defineix
i
es
valida
la
capacitat
d'adaptació
a
través
del
temps.
El
capítol
4
presenta
un
nou
algorisme
d'alineació
de
imatges,
el
Directe-‐Local,
Indirecte-‐Global
(DLIG),
que
compensa
el
moviment
2D
mitjançant
una
transformació
projectiva.
La
idea
clau
de
l'alineació
DLIG
és
dividir
el
problema
d'alineació
de
imatges
en
el
problema
de
registrar
un
conjunt
de
trossos
d'imatge
espacialment
relacionats.
El
registrament
d’un
tros
d’imatge
es
realitza
iterativament
imposant
tan
una
bona
concordança
local
com
una
bona
coherència
espacial
global.
L’alineament
d’un
tros
d’imatge
es
porta
a
terme
utilitzant
un
algoritme
de
seguiment,
de
manera
que
es
molt
eficient
per
aconseguir
una
concordança
local.
L'algorisme
utilitza
el
registrat
de
trossos
d’imatge
per
obtenir
un
registrat
multiimatge
i
utilitza
les
coordenades
mosaic
per
relacionar
el
tros
actual
de
la
imatge
a
trossos
provinents
de
altres
imatges
que
comparteixen
parcialment
el
camp
de
vista.
La
registració
multimatge
impedeix
el
problema
d'acumulació
d'errors,
un
dels
problemes
més
importants
en
mosaics.
També
es
mostra
com
incrustar
un
algoritme
de
seguiment
basat
en
nucli
per
tal
d'obtenir
un
algoritme
de
construcció
de
mosaics
precís
i
eficient.
El
capítol
5
encara
el
problema
de
la
generació
de
mosaics
quan
l'escena
gravada
conté
paral·laxi
de
moviment.
La
solució
desenvolupada
proposa
alinear
la
seqüència
de
vídeo
en
un
volum
d'espai-‐temps
basat
en
el
seguiment
eficient
de
característiques
utilitzant
un
algoritme
de
seguiment
de
nucli.
El
càlcul
és
ràpid
i,
com
el
moviment,
es
calcula
només
per
a
unes
poques
regions
de
la
imatge,
i
tot
i
així
proporciona
una
estimació
del
moviment
3D
precisa.
Aquest
càlcul
és
més
ràpid
i
més
precís
que
l’estat
de
l’art
que
es
basen
en
un
mètode
d'alineació
directa.
La
síntesi
de
la
imatge
del
mosaic
encara
amb
el
mètode
innovador
presentat
a
la
tesi
barcode
Blending
,
un
nou
mètode
per
utilitzar
el
blending
piràmidal
en
les
imatges
mosaic,
que
és
molt
eficient.
Barcode
Blending
permet
superar
la
complexitat
de
la
construcció
de
piràmides
per
a
múltiples
tires
estretes,
en
base
a
combinar
totes
les
tires
en
una
sola
etapa
de
mescla.
Finalment
la
tesi
acaba
am
les
conclusions
i
el
treball
futur
a
fer
en
el
capítol
sisè. / This thesis is focused on motion detection and its use for the summarization of video scenes in mosaic images. While mosaicing with pivoting cameras is a well-known topic, this is not the case with full motion cameras. The first step is to align all the images into a single coordinate system. This process, named image alignment, comes from the estimation of the transform that projects every video image into this common coordinate system. The mosaic image is generated assigning to each point some value derived from the information conveyed for the different images with information about that point. Motion and Mosaicing are deeply related.
The thesis is organized in six chapters. After an introduction to the perceptual aspects of motion in a video sequence and exposing the plan of the thesis, the second chapter deals with the problem of detecting motion using static cameras. To this end, an extensive description of the main background subtraction algorithms in the literature is presented. The original background subtraction algorithm developed in the thesis is presented. This algorithm combines different visual cues and uses a probabilistic graphical model to provide spatio-temporal consistency to the background model. This model represents each pixel as a random variable with two states, background and foreground. Then, Markov Random Fields (MRF) is used to describe the correlation between neighbouring pixels in the space-time volume. In addition, a general framework to combine different motion related information sources is presented in order to increase the accuracy of the motion mask.
The next step is to face the problem of detecting motion when the camera is not static, which is analysed in the chapter 3. In particular, the case with no parallax is considered. This is a common case as PTZ cameras or aerial perspectives do not produce motion parallax. It is proposed to compensate for 2D affine transformations caused by the camera by using Multiple Kernel Tracking, assuming that the major part of the frame belongs to the background. The first step is to introduce Multiple Kernel Tracking describing how it can be formulated for this particular purpose. Then the generation of the background mosaic is defined and it adaptability over time.
Chapter 4 presents a new frame alignment algorithm, the Direct Local Indirect global (DLIG), which compensates the 2D motion using a projective transformation. The key idea of the DLIG alignment is to divide the frame alignment problem into the problem of registering a set of spatially related image patches. The registration is iteratively computed by sequentially imposing a good local match and global spatial coherence. The patch registration is performed using a tracking algorithm, so a very efficient local matching can be achieved. The algorithm uses the patch-based registration to obtain multiframe registration, using the mosaic coordinates to relate the current frame to patches from different frames that partially share the current field of view. Multiframe registration prevents the error accumulation problem, one of the most important problems in mosaicing. It is also show how to embed a Kernel Tracking algorithm in order to obtain a precise and efficient mosaicing algorithm.
The chapter 5 moves to the problem of generating mosaics when the recorded scene contains motion parallax. The developed solution proposes to align the video sequence in a space-time volume based on efficient feature tracking using a Kernel Tracking algorithm. Computation is fast and, as the motion, is computed only for a few regions of the image, yet still gives accurate 3D motion. This computation is faster and more accurate than the previous work that is based on a direct alignment method. The synthesis of the mosaic image is faced with the novel Barcode Blending , a new approach for using pyramid blending in video mosaics, which is very efficient. Barcode Blending overcomes the complexity of building pyramids for multiple narrow strips, combining all strips in a single blending step.
This thesis finishes with the conclusions and future work in chapter 6.
|
Page generated in 0.0645 seconds