• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 89
  • 44
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 286
  • 284
  • 202
  • 187
  • 183
  • 183
  • 183
  • 183
  • 183
  • 183
  • 84
  • 83
  • 83
  • 83
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Design and validation of a structural health monitoring system for aeronautical structures.

Tibaduiza Burgos, Diego Alexander 18 January 2013 (has links)
Structural Health Monitoring (SHM) is an area where the main objective is the verification of the state or the health of the structures in order to ensure proper performance and maintenance cost savings using a sensor network attached to the structure, continuous monitoring and algorithms. Different benefits are derived from the implementation of SHM, some of them are: knowledge about the behavior of the structure under different loads and different environmental changes, knowledge of the current state in order to verify the integrity of the structure and determine whether a structure can work properly or whether it needs to be maintained or replaced and, therefore, to reduce maintenance costs. The paradigm of damage identification (comparison between the data collected from the structure without damages and the current structure in orderto determine if there are any changes) can be tackled as a pattern recognition problem. Some statistical techniques as Principal Component Analysis (PCA) or Independent Component Analysis (ICA) are very useful for this purpose because they allow obtaining the most relevant information from a large amount of variables. This thesis uses an active piezoelectric system to develop statistical data driven approaches for the detection, localization and classification of damages in structures. This active piezoelectric system is permanently attached to the surface of the structure under test in order to apply vibrational excitations and sensing the dynamical responses propagated through the structure at different points. As pattern recognition technique, PCA is used to perform the main task of the proposed methodology: to build a base-line model of the structure without damage and subsequentlyto compare the data from the current structure (under test) with this model. Moreover, different damage indices are calculated to detect abnormalities in the structure under test. Besides, the localization of the damage can be determined by means of the contribution of each sensor to each index. This contribution is calculated by several different methods and their comparison is performed. To classify different damages, the damage detection methodology is extended using a Self-Organizing Map (SOM), which is properly trained and validated to build a pattern baseline model using projections of the data onto the PCAmodel and damage detection indices. This baseline is further used as a reference for blind diagnosis tests of structures. Additionally, PCA is replaced by ICAas pattern recognition technique. A comparison between the two methodologies is performed highlighting advantages and disadvantages. In order to study the performance of the damage classification methodology under different scenarios, the methodology is tested using data from a structure under several different temperatures. The methodologies developed in this work are tested and validated using different structures, in particular an aircraft turbine blade, an aircraft wing skeleton, an aircraft fuselage,some aluminium plates and some composite matarials plates. / La monitorización de daños en estructuras (SHM por sus siglas en inglés) es un área que tiene como principal objetivo la verificación del estado o la salud de la estructura con el fin de asegurar el correcto funcionamiento de esta y ahorrar costos de mantenimiento. Para esto se hace uso de sensores que son adheridos a la estructura, monitorización continua y algoritmos. Diferentes beneficios se obtienen de la aplicación de SHM, algunos de ellos son: el conocimiento sobre el desempeño de la estructura cuando esta es sometida a diversas cargas y cambios ambientales, el conocimiento del estado actual de la estructura con el fin de determinar la integridad de la estructura y definir si esta puede trabajar adecuadamente o si por el contrario debe ser reparada o reemplazada con el correspondiente beneficio del ahorro de gastos de mantenimiento. El paradigma de la identificación de daños (comparación entre los datos obtenidos de la estructura sin daños y la estructura en un estado posterior para determinar cambios) puede ser abordado como un problema de reconocimiento de patrones. Algunas técnicas estadísticas tales como Análisis de Componentes Principales (PCA por sus siglas en inglés) o Análisis de Componentes Independientes (ICA por sus siglas en ingles) son muy útiles para este propósito puesto que permiten obtener la información más relevante de una gran cantidad de variables. Esta tesis hace uso de un sistema piezoeléctrico activo para el desarrollo de algoritmos estadísticos de manejo de datos para la detección, localización y clasificación de daños en estructuras. Este sistema piezoeléctrico activo está permanentemente adherido a la superficie de la estructura bajo prueba con el objeto de aplicar señales vibracionales de excitación y recoger las respuestas dinámicas propagadas a través de la estructura en diferentes puntos. Como técnica de reconocimiento de patrones se usa Análisis de Componentes Principales para realizar la tarea principal de la metodología propuesta: construir un modelo PCA base de la estructura sin daño y posteriormente compararlo con los datos de la estructura bajo prueba. Adicionalmente, algunos índices de daños son calculados para detectar anormalidades en la estructura bajo prueba. Para la localización de daños se usan las contribuciones de cada sensor a cada índice, las cuales son calculadas mediante varios métodos de contribución y comparadas para mostrar sus ventajas y desventajas. Para la clasificación de daños, se amplia la metodología de detección añadiendo el uso de Mapas auto-organizados, los cuales son adecuadamente entrenados y validados para construir un modelo patrón base usando proyecciones de los datos sobre el modelo PCA base e índices de detección de daños. Este patrón es usado como referencia para realizar un diagnóstico ciego de la estructura. Adicionalmente, dentro de la metodología propuesta, se utiliza ICA en lugar de PCA como técnica de reconocimiento de patrones. Se incluye también una comparación entre la aplicación de las dos técnicas para mostrar las ventajas y desventajas. Para estudiar el desempeño de la metodología de clasificación de daños bajo diferentes escenarios, esta se prueba usando datos obtenidos de una estructura sometida a diferentes temperaturas. Las metodologías desarrolladas en este trabajo fueron probadas y validadas usando diferentes estructuras, en particular un álabe de turbina, un esqueleto de ala y un fuselaje de avión, así como algunas placas de aluminio y de material compuesto
122

Lógica difusa aplicada a conjuntos imbalanceados: aplicación a la detección del Síndrome de Down

Soler Ruiz, Vicenç 23 January 2007 (has links)
El problema a resolver en esta Tesis Doctoral consiste en hallar una solución que mejore la clasificación que se consigue actualmente para el problema de la detección precoz del síndrome de Down en fetos, durante el segundo trimestre de embarazo, con técnicas no invasivas.El conjunto de datos usado para la detección del síndrome de Down es de dos clases y de tipo imbalanceado, es decir, que hay una gran diferencia entre el número de casos correspondientes a fetos que no son afectados por el síndrome de Down y los que sí lo son.Para tratar de mejorar la clasificación que se logra en la actualidad, se ha desarrollado un nuevo método de Soft Computing basado en Lógica Difusa diseñado para trabajar con conjuntos de datos imbalanceados. Este método permite, no sólo hallar una buena solución, sino también extraer el conocimiento adquirido.El método desarrollado se denomina FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) y se basa en la idea de que la solución generalice lo máximo posible, para evitar el efecto de sobreaprendizaje ("overfitting") que se produce en la mayoría de métodos al tratar de trabajar con un conjunto de datos imbalanceado. Para proporcionar las herramientas necesarias al método para que generalice, se ha desarrollado un algoritmo llamado ReRecBF, que forma parte del método FLAGID. Este algoritmo transforma las funciones de pertenencia obtenidas a partir de los datos por otro algoritmo ya existente llamado DDA/RecBF. Esta transformación consiste en convertir las funciones de pertenencia generadas a partir de los casos de la clase-menor en funciones triangulares, dejar como funciones trapezoidales las funciones de pertenencia de la clase-mayor y dividir las funciones de pertenencia que se solapen. Finalmente, debido a que se generan nuevas funciones de pertenencia, un algoritmo genético es usado simplemente para hallar las reglas que más se ajusten a las nuevas funciones.Los resultados obtenidos han mejorado la tasa de falsos positivos en el conjunto de datos del síndrome de Down hasta el 4%, con una tasa de verdaderos positivos del 60%. Esta es la primera vez que un método consigue bajar del 5% de falsos positivos con esa tasa de aciertos en los verdaderos positivos. Además, se ha extraído el conocimiento del resultado, y éste ha coincidido, en su mayoría, con el conocimiento existente en el campo de la medicina. Otro hecho remarcable es que se ha comprobado que el método también es útil para trabajar con conjuntos de datos imbalanceados.Finalmente, los resultados de este trabajo realizan aportaciones nuevas en el campo de la medicina, como son la importancia de la edad gestacional del feto en la detección de los casos positivos y que el peso de la madre tiene más importancia que simplemente el calibrar los dos indicadores hormonales AFP y hCG. / The problem to solve in this PhD Thesis consists of finding a solution that improves the classification that is obtained at the moment for the problem of the detection of the Down syndrome in fetuses, during the second trimester of pregnancy, with non-invasive techniques.The dataset used for the detection of the Down syndrome is imbalanced and two classes type, that is, that there are a great difference between the number of cases corresponding to fetuses that are not affected by the Down syndrome and those that are affected.In order to try to improve the classification that is obtained at the present time, a new method of Soft Computing has been developed based on Fuzzy Logic and designed to work with imbalanced datasets. This method allows, not only to find a good solution, but also to extract the acquired knowledge. The developed method is called FLAGID (Fuzzy Logic And Genetic algorithms for Imbalanced Datasets) and it is based on the idea that the solution tries to generalize at maximum, avoiding the overfitting effect that takes place in most of methods when trying to work with an imbalanced dataset. In order to provide the necessary tools to the method that allows it to generalize, an algorithm called ReRecBF has been developed, which is a part of method FLAGID. This algorithm transforms the membership functions obtained from the data by another existing algorithm, called DDA/RecBF. This transformation consists of turning the membership functions generated from the cases of the minor-class in triangular functions, leaving like trapezoidal functions the membership functions of the major-class, dividing the membership functions that are overlapped. Finally, because new membership functions are generated, a genetic algorithm is used simply to find the rules that adjust more to the new functions.The results obtained have improved the rate of false positives in the data set of the Down syndrome until 4%, with a rate of true positives of 60%. This is the first time that a method is able to achieve a lower rate of 5% of false positives with that rate of successes in the true positives. In addition, the knowledge of the result has been extracted, and this one has agreed, in its majority, with the existing knowledge in the field of the medicine. Another remarkable fact is that it has been verified that the method also is useful to work with imbalanced datasets. Finally, the results of this work make new contributions in the field of the medicine, like the importance of the gestational age of the fetus in the detection of the positive cases and that the weight of the mother has more indicating importance than simply calibrating both hormonal AFP and hCG.
123

Color for Object Detection and Action Recognition

Anwer, Rao Muhammad 30 April 2013 (has links)
Detectar objetos en imágenes es un problema central en el campo de la visión por computador. El marco de detección basado en modelos de partes deformable es actualmente el más eficaz. Generalmente, HOG es el descriptor de imágenes a partir del cual se construyen esos modelos. El reconocimiento de acciones humanas es otro de los tópicos de más interés actualmente en el campo de la visión por computador. En este caso, los modelos usados siguen la idea de conjuntos de palabras (visuales), en inglés bag-of-words, en este caso siendo SIFT uno de los descriptor de imágenes más usados para dar soporte a la formación de esos modelos. En este contexto hay una información muy relevante para el sistema visual humano que normalmente está infrautilizada tanto en la detección de objetos como en el reconocimiento de acciones, hablamos del color. Es decir, tanto HOG como SIFT suelen ser aplicados al canal de luminancia o algún tipo de proyección de los canales de color que también lo desechan. Globalmente esta tesis se centra en incorporar color como fuente de información adicional para mejorar tanto la detección objetos como el reconocimiento de acciones. En primer lugar la tesis analiza el problema de la detección de personas en fotografías. En particular nos centramos en analizar la aportación del color a los métodos del estado del arte. A continuación damos el salto al problema de la detección de objetos en general, no solo personas. Además, en lugar de introducir el color en el nivel más bajo de la representación de la imagen, lo cual incrementa la dimensión de la representación provocando un mayor coste computacional y la necesidad de más ejemplos de aprendizaje, en esta tesis nos centramos en introducir el color en un nivel más alto de la representación. Esto no es trivial ya que el sistema en desarrollo tiene que aprender una serie de atributos de color que sean lo suficientemente discriminativos para cada tarea. En particular, en esta tesis combinamos esos atributos de color con los tradicionales atributos de forma y lo aplicamos de forma que mejoramos el estado del arte de la detección de objetos. Finalmente, nos centramos en llevar las ideas incorporadas para la tarea de detección a la tarea de reconocimiento de acciones. En este caso también demostramos cómo la incorporación del color, tal y como proponemos en esta tesis, permite mejorar el estado del arte. / Recognizing object categories in real world images is a challenging problem in computer vision. The deformable part based framework is currently the most successful approach for object detection. Generally, HOG are used for image representation within the part-based framework. For action recognition, the bag-of-word framework has shown to provide promising results. Within the bag-of-words framework, local image patches are described by SIFT descriptor. Contrary to object detection and action recognition, combining color and shape has shown to provide the best performance for object and scene recognition. In the first part of this thesis, we analyze the problem of person detection in still images. Standard person detection approaches rely on intensity based features for image representation while ignoring the color. Channel based descriptors is one of the most commonly used approaches in object recognition. This inspires us to evaluate incorporating color information using the channel based fusion approach for the task of person detection. In the second part of the thesis, we investigate the problem of object detection in still images. Due to high dimensionality, channel based fusion increases the computational cost. Moreover, channel based fusion has been found to obtain inferior results for object category where one of the visual varies significantly. On the other hand, late fusion is known to provide improved results for a wide range of object categories. A consequence of late fusion strategy is the need of a pure color descriptor. Therefore, we propose to use Color attributes as an explicit color representation for object detection. Color attributes are compact and computationally efficient. Consequently color attributes are combined with traditional shape features providing excellent results for object detection task. Finally, we focus on the problem of action detection and classification in still images. We investigate the potential of color for action classification and detection in still images. We also evaluate different fusion approaches for combining color and shape information for action recognition. Additionally, an analysis is performed to validate the contribution of color for action recognition. Our results clearly demonstrate that combining color and shape information significantly improve the performance of both action classification and detection in still images.
124

Learning to represent handwritten shapes and words for matching and recognition

Almazán, Jon 21 November 2014 (has links)
La escritura es una de las formas más importantes de comunicación y durante siglos ha sido el método ma ́s fiable para preservar conocimiento. Sin embargo, a pesar del reciente desarrollo de las imprentas y dispositivos, la escritura manuscrita todavía se utiliza ampliamente para tomar notas, hacer anotaciones, o dibujar bocetos. Con el fin de hacerlos fácilmente accesibles, hay una enorme cantidad de documentos escritos a mano, algunos de ellos con un valor cultural incalculable, que han sido recientemente digitalizados. Esto ha hecho necesario el desarrollo de métodos capaces de extraer información de este tipo de imágenes. Transferir a los ordenadores la capacidad de comprender y reconocer texto y formas escritas a mano ha sido el objetivo de muchos investigadores debido a su gran importancia para muchos campos diferentes. Sin embargo, el diseño de buenas representaciones para lidiar con formas manuscritas es un problema muy difícil debido a la gran variabilidad en este tipo de formas. Una de las consecuencias de trabajar con formas escritas a mano es que necesitamos representaciones que sean robustas, es decir, capaces de adaptarse a la gran variabilidad interna de la clase. Necesitamos representaciones que sean discriminativas, es decir, capaces de aprender cuáles son las diferencias entre las clases. Y necesitamos representaciones que sean eficientes, es decir, capaces de ser calculadas y comparadas con rapidez. Desafortunadamente, las técnicas actuales de representación de formas manuscritas para la recuperación y el reconocimiento no cumplen todos o algunos de estos requisitos. En esta tesis nos centramos en el problema de aprender a representar formas manuscritas dirigido a tareas de recuperación y reconocimiento. En concreto, en la primera parte de la tesis, nos centramos en el problema general de la representación de formas manuscritas para clasificación y reconocimiento. Primero presentamos un descriptor de forma basado en una rejilla deformable que se adapta a grandes deformaciones y donde las celdas de la cuadrícula se utilizan para extraer diferentes características. Seguidamente, proponemos utilizar este descriptor para aprender modelos estadísticos basados en el Active Appearance Model, que aprende de forma conjunta la variabilidad en la estructura y la textura de una determinada clase. En la segunda parte nos centramos en una aplicación concreta, el problema de word spotting, donde el objetivo es encontrar todas las instancias de una palabra dada en un conjunto de imágenes. En primer lugar, abordamos el problema sin segmentación previa y proponemos un enfoque no supervisado, basado en ventana deslizante que supera el estado del arte en dos datasets públicos. En segundo lugar, se aborda el problema de word spotting con varios escritores, donde la variabilidad de palabras aumenta exponencialmente. Se describe un método en el que las imágenes de texto y cadenas de texto se proyectan en un subespacio vectorial común, y donde aquellos vectores que representan la misma palabra están más próximos. Esto se logra gracias a una combinación de label embedding y aprendizaje de atributos, y una regresión a subespacio común. Evaluamos nuestro método en bases de datos públicas de documentos manuscritos e imágenes naturales que muestran resultados comparables o mejores que el estado del arte en tareas de búsqueda y reconocimiento. / Writing is one of the most important forms of communication and for centuries, handwriting had been the most reliable way to preserve knowledge. However, despite the recent development of printing houses and electronic devices, handwriting is still broadly used for taking notes, doing annotations, or sketching ideas. In order to be easily accessed, there is a huge amount of handwritten documents, some of them with uncountable cultural value, that have been recently digitized. This has made necessary the development of methods able to extract information from these document images. Transferring the ability of understanding handwritten text or recognizing handwritten shapes to computers has been the goal of many researches due to its huge importance for many different fields. However, designing good representations to deal with handwritten shapes, e.g. symbols or words, is a very challenging problem due to the large variability of these kinds of shapes. One of the consequences of working with handwritten shapes is that we need representations to be robust, i.e., able to adapt to large intra-class variability. We need representations to be discriminative, i.e., able to learn what are the differences between classes. And, we need representations to be efficient, i.e., able to be rapidly computed and compared. Unfortunately, current techniques of handwritten shape representation for matching and recognition do not fulfill some or all of these requirements. Through this thesis we focus on the problem of learning to represent handwritten shapes aimed at retrieval and recognition tasks. Specifically, on the first part of the thesis, we focus on the general problem of representing handwritten shapes for classification and matching. We first present a novel shape descriptor based on a deformable grid that deals with large deformations by adapting to the shape and where the cells of the grid can be used to ex- tract different features. Then, we propose to use this descriptor to learn statistical models, based on the Active Appearance Model, that jointly learns the variability in structure and texture of a given shape class. Then, on the second part, we focus on a concrete application, the problem of word spotting, where the goal is to find all instances of a query word in a dataset of images. First, we address the segmentation-free problem and propose an unsupervised, sliding-window-based approach that achieves state-of-the-art results in two public datasets. Second, we address the more challenging multi-writer problem, where the variability in words exponentially increases. We describe an approach in which both word images and text strings are embedded in a common vectorial subspace, and where those that represent the same word are close together. This is achieved by a combination of label embedding and attributes learning, and a common subspace regression. This leads to a low- dimensional, unified representation of word images and strings, resulting in a method that allows one to perform either image and text searches, as well as image transcription, in a unified framework. We test our approach on four public datasets of both handwritten documents and natural images showing results comparable or better than the state-of-the-art on spotting and recognition tasks
125

ALEAR: Arte procesual-arte aleatorio. La aleatoriedad en el "computer art"

Puig Mestres, Luis Eloy 06 April 2005 (has links)
¿Qué relación existe entre el ordenador y el azar?, ¿De que manera utiliza el ordenador los componentes aleatorios?, ¿Cómo el Computer-art utiliza el azar para desarrollar proyectos creativos?, ¿Hasta que punto el azar ha determinado el desarrollo del Computer-art? Esta tesis se segmenta en tres aproximaciones.1ª aproximación.- "Alear v_cd" se trata de un proyecto "reactivo" presentado en CD-Rom. En él no hay interacción, la máquina es quien decide todo el desarrollo de la pieza. Es una interpretación sobre diversos conceptos de la comunicación representados a través de factores aleatorios que determinarán una visualización única para cada vez que se ejecute, sin que los contenidos narrativos varíen. 2ª aproximación.- "Alear v_shots" es una edición en forma de libro de una selección de screenshots de "Alear v_cd", unas imágenes realizadas previamente al desarrollo del ejecutable y unos textos literarios adaptados a las narraciones visuales. 3ª aproximación.- "Alear Arte procesual-aleatorio" La aleatoriedad en el Computer-art es un estudio teórico y reflexivo sobre la aleatoriedad aplicada al Computer-art, incluyendo el análisis de textos y obras de otros artistas y científicos que han utilizado el concepto del azar para articular sus propios trabajos y reflexionar sobre la complejidad de nuestra realidad. Si en épocas anteriores lo caótico, lo irregular era un referente poco sugerente, ahora con el ordenador y con una sencilla operación matemática que pueda generar aleatoriedad, ha pasado a ser un elemento crucial para entender la actualidad del arte contemporáneo. Esta tesis pretende introducir y estudiar aplicaciones artísticas y variantes teóricas derivadas de la presencia asombrosamente grande y multiforme de lo computacional, del cálculo numérico y la aleatoriedad en nuestro entorno creativo contemporáneo, y observar cómo se han convertido en un medio poderosamente condicionador de nuestras actividades artísticas. En un primer bloque. se reflexiona entorno al azar desde la perspectiva científica, tecnológica, musical y literaria. El segundo bloque se centra en el territorio propio del Computer-art para analizar su relación con los componentes aleatorios, ver cuando se origina esa relación y porqué. "procesual-aleatorio" surge de la necesidad de dar un nombre clasificatorio al conjunto de trabajos que por un lado utilizan el microprocesador como elemento básico para su desarrollo y ejecución, y por otro lado, al conjunto que incorpora componentes aleatorios y que lo dotarán de un carácter diferenciador. Para demostrar que esta categorización estética no surge solamente por una determinación técnica, se determinan las principales características de esta nueva tipología de trabajos. / What kind of relation exists between the computer and the chance? In which way the computer uses a random components? How the Computer-art uses the chance to develop creative projects? Until which point the chance has determined the development of the Computer-art? This thesis is segmented in three approaches. 1ª approach. - "Alear v_cd" is a "reactive" presented project in CD-Rom. There is no interaction; the machine is the one that decides all the development of the piece. It is an interpretation from diverse represented concepts of the communication through random factors that will determine a unique visualization whenever it is executed, without any variety of the narrative contents. 2ª approach. - "Alear v_shots" is an edition in the form of a book with a selection of screenshots " Alear v_cd", images made previously to the development of feasible and literary texts adapted to the visual narrations. 3ª approach. - "Alear procesual-random Art" the randomness in the Computer-art is a theoretical and reflective study of the randomness applied to the Computer-art, including the analysis of texts and works of other artists and scientists who have used the concept of the chance to articulate their own works and to reflect on the complexity of our reality. If the chaotic thing, the irregular thing was a reference merely suggestive in the previous times, the computer and one simple mathematical operation that can generate randomness becomes a crucial element to understand the present time of the contemporary art.This thesis tries to introduce and study the artistic applications and theoretical varieties derived from the amazingly vast presence and multiform of the computational, the numerical calculation and the randomness in our contemporary creative surroundings, and to observe how they have become a powerful medium that conditions our artistic activities.
126

Enfoques metodológicos para mejorar la precisión y fiabilidad de los sistemas de monitorización continua de glucosa en pacientes con diabetes tipo 1 y en pacientes críticos mediante técnicas lineales y no lineales

Leal Moncada, Yenny Teresa 30 July 2013 (has links)
This dissertation focuses on the development and improvement of the minimally invasive continuous glucose monitoring systems (CGMS). This dissertation gives emphasis in solving the problem of the accuracy and reliability of the blood glucose (BG) concentrations estimated by CGMS. The main novelty of this dissertation is that it takes into account the dynamic relationship between BG and interstitial glucose (IG) in the algorithms for BG estimation. Furthermore, pattern recognition and learning techniques are explored combining the information provided by the monitor itself and variables related to the patient's clinical condition, to detect correct and incorrect measurements, without requiring any reference measurement. The performance of the proposed methodological approaches has been validated with data from different clinical studies, in both diabetic and critically-ill patients / Aquesta tesi doctoral s'enfoca en el desenvolupament i millora dels sistemes de monitoratge continu de glucosa (SMCG) mínimament invasius, fent èmfasi en la resolució del problema de la precisió i fiabilitat de les concentracions de glucosa en plasma (BG) estimats pels SMCG. La principal novetat d’aquesta tesi és tenir en compte la relació dinàmica entre BG i la glucosa intersticial (IG) en els algorismes d'estimació de BG, i aplicar tècniques d'aprenentatge i reconeixement de patrons que utilitzen la informació subministrada pel propi SMCG i variables relacionades amb la condició clínica del pacient, per detectar estimacions de BG correctes i incorrectes, sense requerir de cap mesura de referència. El rendiment dels mètodes proposats s'ha validat amb dades de diferents estudis clínics, tant de malalts diabètics com de malalts crítics
127

Computationally reliable approaches of contractive MPC for discrete-time systems

Wan, Jian 30 July 2007 (has links)
La tesis pretende explorar acercamientos computacionalmente confiables y eficientes de contractivo MPC para sistemas de tiempo discreto. Dos tipos de contractivo MPC han sido estudiados: MPC con coacción contractiva obligatoria y MPC con una secuencia contractiva de conjuntos controlables. Las técnicas basadas en optimización convexa y análisis de intervalos son aplicadas para tratar MPC contractivo lineal y no lineal, respectivamente. El análisis de intervalos clásicos es ampliado a zonotopes en la geometría para diseñar un conjunto invariante de control terminal para el modo dual de MPC. También es ampliado a intervalos modales para tener en cuenta la modalidad al calcula de conjuntos controlables robustos con una interpretación semántica clara. Los instrumentos de optimización convexa y análisis de intervalos han sido combinados para mejorar la eficacia de contractive MPC para varias clases de sistemas de tiempo discreto inciertos no lineales limitados. Finalmente, los dos tipos dirigidos de contractivo MPC han sido aplicados para controlar un Torneo de Fútbol de Copa Mundial de Micro Robot (MiroSot) y un Tanque-Reactor de Mezcla Continua (CSTR), respectivamente. / The thesis aims to explore computationally reliable and efficient approaches of contractive MPC for discrete-time systems. Two types of contractive MPC have been studied: MPC with compulsory contractive constraint and MPC with a contractive sequence of controllable sets. Techniques based on convex optimization and interval analysis are applied to deal with linear and nonlinear contractive MPC, respectively. Classical interval analysis is extended to zonotopes in geometry for designing a terminal control invariant set in the dual-mode approach of MPC. It is also extended to modal intervals in modality for computing robust controllable sets with a clear semantic interpretation. The tools of convex optimization and interval analysis have been combined further to improve the efficiency of contractive MPC for various kinds of constrained nonlinear uncertain discrete-time systems. Finally, the addressed two types of contractive MPC have been applied to control a Micro Robot World Cup Soccer Tournament (MiroSot) robot and a Continuous Stirred-Tank Reactor (CSTR), respectively.
128

Application of modal interval analysis to the simulation of the behaviour of dynamic systems with uncertain parameters

Armengol Llobet, Joaquim 28 April 2000 (has links)
Els models matemàtics quantitatius són simplificacions de la realitat i per tant el comportament obtingut per simulació d'aquests models difereix dels reals. L'ús de models quantitatius complexes no és una solució perquè en la majoria dels casos hi ha alguna incertesa en el sistema real que no pot ser representada amb aquests models. Una forma de representar aquesta incertesa és mitjançant models qualitatius o semiqualitatius. Un model d'aquest tipus de fet representa un conjunt de models. La simulació del comportament de models quantitatius genera una trajectòria en el temps per a cada variable de sortida. Aquest no pot ser el resultat de la simulació d'un conjunt de models. Una forma de representar el comportament en aquest cas és mitjançant envolupants. L'envolupant exacta és complete, és a dir, inclou tots els possibles comportaments del model, icorrecta, és a dir, tots els punts dins de l'envolupant pertanyen a la sortida de, com a mínim, una instància del model. La generació d'una envolupant així normalment és una tasca molt dura que es pot abordar, per exemple, mitjançant algorismes d'optimització global o comprovació de consistència. Per aquesta raó, en molts casos s'obtenen aproximacions a l'envolupant exacta. Una aproximació completa però no correcta a l'envolupant exacta és una envolupant sobredimensionada, mentre que una envolupant correcta però no completa és subdimensionada. Aquestes propietats s'han estudiat per diferents simuladors per a sistemes incerts.
129

Improvements in the ray tracing of implicit surfaces based on interval arithmetic

Flórez Díaz, Jorge Eliécer 10 December 2008 (has links)
Las superfícies implícitas son útiles en muchas áreasde los gráficos por ordenador. Una de sus principales ventajas es que pueden ser fácilmente usadas como primitivas para modelado. Aun asi, no son muy usadas porque su visualización toma bastante tiempo. Cuando se necesita una visualización precisa, la mejor opción es usar trazado de rayos. Sin embargo, pequeñas partes de las superficies desaparecen durante la visualización. Esto ocurre por la truncación que se presenta en la representación en punto flotante de los ordenadores; algunos bits se puerden durante las operaciones matemáticas en los algoritmos de intersección. En este tesis se presentan algoritmos para solucionar esos problemas. La investigación se basa en el uso del Análisis Intervalar Modal el cual incluye herramientas para resolver problemas con incertidumbe cuantificada. En esta tesis se proporcionan los fundamentos matemáticos necesarios para el desarrollo de estos algoritmos. / Implicit surfaces are useful in many areas related to computer graphics. One of their main advantages over other representations is that they can be easily used as primitives for modeling. However, they are not widely used for this purpose because the models created with implicit surfaces take a long time to be rendered. When a precise visualization of an implicit surface is required, the best option is to use ray tracing. However, thin features can be missed in models that have thin parts. These problems are caused by the truncation performed in the floating-point representation in the computers: come bits ae lost in the mathematical operations during the intersection test. In this work, algorithms to deal with those problems are presented. The research is based on Modal Interval Analysis that includes tools for solving quantified uncertainty. Modal Interval Analysis gives the mathematical foundations used in the development of these algorithms.
130

Broadband electrical impedance spectroscopy for dynamic electrical bio-impedance characterization

Sánchez Terrones, Benjamín 13 January 2012 (has links)
The electrical impedance of biological samples is known in the literature as Electrical Bioimpedance (EBI). The Electrical Bioimpedance enables to characterize physiological conditions and events that are interesting for physiological research and medical diagnosis. Although the Electrical Bioimpedance weakness is that it depends on many physiological parameters, on the other hand, it is suitable for many medical applications where minimally invasive and real-time measurements with simple and practical implementations are needed. The Electrical Impedance Spectroscopy (EIS) techniques based on broadband excitations are expected to help to understand various unsolved problems in biomedical applications. Broadband EIS opens up the possibility to reduce drastically the measuring time for acquiring EBI time-variations but, at the same time, measuring in a short time compromises the EBI accuracy. The way to overcome this intrinsic loss of accuracy relies on the design of the appropriate time/frequency input excitation properties and the use of the suitable spectral analysis processing techniques. The presented thesis covers the topics related to study of broadband excitations for Impedance Spectroscopy in biomedical applications and, more specific, the influence of the multisine excitation time/frequency properties on the impedance spectrum accuracy and its optimization. Furthermore, an advanced fast signal processing method has been implemented to process in real-time EBI data corrupted by transients, a common situation when measuring in a short measuring time. Despite being the goal to apply all this knowledge for myocardial tissue regeneration monitoring, at the moment of drafting the thesis, any of the research projects that have supported this thesis have issued functional beating tissue. For that reason, the theory presented has been validated by a set of experimental measurements over animals and patients where the impedance spectrum time-varying properties were pretended to be characterized. The thesis presents novel findings of relevance of a successful application of broadband EIS in two different measurement campaigns where it has been put in practice: (1) within the collaboration of the pneumology and cardiology service from Hospital Santa Creu i Sant Pau for in-vivo human lung tissue characterization, and (2), within the measurement of animal healthy myocardium tissue electrical impedance including its dynamic behavior during the cardiac cycle.

Page generated in 0.0522 seconds