• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 73
  • 31
  • 29
  • 18
  • 9
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 486
  • 194
  • 190
  • 185
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 98
  • 64
  • 50
  • 36
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Robust control through robusntness enhancement. Control Configurations And Two-Step Design Approaches

Pedret Ferré, Carles 18 July 2003 (has links)
En aquesta Tesi es proposa una nova estructura de control amb l'objectiu de solucionar el conflicte entre rendiment i robustesa en l'esquema de realimentació tradicional. La teoria matemàtica de la factorització coprimera permet proposar un configuració de control basada en observador. És el que es denomina configuració Observador-Controlador i es fa servir de diferents maneres. La primera proposta enfoca la millorar les prestacions de robustesa com a una alternativa al disseny d'un controlador robust. Amb la intenció d'aconseguir un bon rendiment en presència de pertorbacions i d'incerteses procedim de la següent manera: en primer lloc, dissenyem un sistema de control per realimentació estàndard per tal de satisfer els requeriments de seguiment a referència; en segon lloc, millorem les propietats de robustesa sense alterar les propietats de seguiment del sistema de control inicial. Aquesta estratègia es basa en la generació d'un complement pel sistema de control nominal mitjançant una estructura fonamentada en la configuració Observador-Controlador. Els sistema de control resultant funciona de tal manera que la planta estarà controlada només pel controlador per realimentació nominal quan no hi hagi ni incerteses ni pertorbacions externes i el controlador per a la robustificació estarà actiu només en presencia de incerteses i/o pertorbacions externes.La segona proposta afronta l'objectiu d'aconseguir un bon rendiment en presència de pertorbacions i d'incerteses. En aquest cas, desenvolupen un controlador de dos graus de llibertat (2-DOF) i procedim de la següent manera: primer, dissenyem un sistema de control per realimentació basat en observador per tal de garantir un nivell mínim d'estabilitat robusta; segon, dissenyem un prefiltre per tal de garantir robustesa en les propietats de llaç obert. Malgrat les dues propostes no es basen en una reformulació en termes del factor de Youla, es possible fer una parametrització basada en Youla per tal de caracteritzar el conjunt de tots els observadors per una planta nominal. En essència, les dues propostes es poden veure com a estructures de dos graus de llibertat. Tot i que l'esquema de la primera proposta no s'adapta a una estructura de 2-DOF clàssica, amb un prefiltre i una part per realimentació, podem considerar-la com a tal pel fet que aconsegueix una complerta separació de propietats. En aquest cas, el controlador inicial s'ocupa de les especificacions de seguiment a referència per a la planta nominal i el controlador per a la robustificació s'encarrega de la millora, si cal, les prestacions de robustesa nominals. / In this Thesis, we shall propose a new controller architecture to try to completely overcome the conflict between performance and robustness in the traditional feedback framework. The proposed control configuration comes from the coprime factorization approach and, in such a context, a somewhat uncommon observer-based control configuration is derived. It is the Observer-Controller configuration and it is used in different arrangements.The first proposal deals with the robustness enhancement problem as an alternative to the design of a robust control system. With the lofty goal of achieving high performance in the face of disturbances and uncertainties we proceed as follows: first, an initial feedback control system is set for the nominal plant to satisfy tracking requirements and second, the resulting robustness properties are conveniently enhanced while leaving unaltered the tracking responses provided by the initial controller. The approach is based on the generation of a complement for the nominal control system by means of an structure based on the Observer-Controller configuration. The final control system works in such a way that the plant will be solely controlled by the initial nominal feedback controller when there is neither model uncertainties nor external disturbances and the robustification controller will only be active when there is model uncertainties and/or external disturbances. The second proposal also addresses the goal of high performance in the face of disturbances and uncertainties. In this case, a two degrees-of-freedom (2-DOF) control configuration is developed. We proceed as follows: first, an observer-based feedback control scheme is designed to guarantee some levels of stability robustness and second, a prefilter controller is computed to guarantee robust open-loop processing of the reference commands. Despite both proposals are not based on a reformulation in terms of the Youla parameter, it is possible to perform a Youla parametrization to characterize the set of all observers for the nominal plant. Essentially, both proposals can be considered as 2-DOF control configurations. The first presented proposal do not fit the standard 2-DOF control scheme made up with a feedback controller and a prefilter controller. Nevertheless, it can also be seen to lie in the 2-DOF control configuration in the sense that a complete separation of properties is achieved. In such case, the tracking properties of the nominal plant are attained by a controller and the robustness properties are considered and enhanced if necessary by the Observer-Controller configuration.
82

Análisis automático de prestaciones de aplicaciones paralelas basadas en paso de mensajes

Jorba Esteve, Josep 06 April 2006 (has links)
La tesis presenta, el desarrollo de una propuesta de arquitectura para el análisis automático de prestaciones de aplicaciones paralelas desarrolladas bajo paradigmas de programación de paso explicito de mensajes.A lo largo de los capítulos que configuran la misma: se han analizado diferentes aspectos que tienen que ver con el ámbito de aplicación, ya sea introduciendo los sistemas paralelos y distribuidos usados como base, así como las métricas base de prestaciones. Dando una visión de diferentes técnicas base para la monitorización, como el tracing y profiling, y como se han usado como primer paso de las herramientas clásicas de análisis de prestaciones, normalmente basadas en técnicas de visualización. Las deficiencias de estas, así como el amplio conocimiento necesario para intepretar correctamente los datos proporcionados, nos llevan a considerar herramientas de un nivel superior, que proporcionen automatismos más allá de la monitorización y nos permitan obtener resultados interpretables y útiles directamente para la mejora de las prestaciones de las aplicaciones.La arquitectura propuesta, mediante diferentes fases de monitorización, detección de problemas, clasificación según su relevancia, análisis de sus causas, y la emisión de sugerencias sobre actuaciones nos permite minimizar y/o hacer desaparecer las ineficiencias causadas por los problemas de prestaciones aparecidos durante la ejecución de las aplicaciones.Entre los objetivos de la arquitectura propuesta, se encuentran: a) La especificación del conocimiento de prestaciones, mediante la introducción de conocimiento en forma de estructura de problemas, y del análisis de sus causas, de forma que permita ampliar el conocimiento que en cada momento pueda disponer la herramienta. b) Independencia de los mecanismos de detección de los problemas concretos definidos. c) Independencia del sistema base de paso de mensajes utilizado. d) Relación de los problemas con el código fuente de la aplicación, para establecer que puntos están relacionados con los problemas. e) La emisión de sugerencias útiles de cara al usuario final para proporcionar actuaciones directas sobre el código de la aplicación para mejorar sus prestaciones.Los resultados experimentales obtenidos sobre un prototipo de herramienta basada en la arquitectura propuesta, demuestran la viabilidad de las de las propuestas formuladas en esta tesis. La herramienta ha sido probada con un amplio conjunto de aplicaciones paralelas y distribuidas para demostrar esta viabilidad, comprobando que la metodología es eficaz, fiable y beneficiosa y que puede ser usada para mejoras reales del rendimiento de las aplicaciones. / The thesis presents, the development of a architectural proposal for the automatic performance analysis of parallel applications developed in programming paradigms of explicit message passing.In the chapters that form the thesis: different aspects have been analyzed that they have to do with the field of application, by introducing the parallel and distributed systems used as base systems, as well the base metrics of performance. Giving a vision of different techniques for monitoring, like tracing and profiling, and since they have used like the first step in the classic tools of performance analysis, normally based on visualization techniques. The deficiencies of these tools, as well as the wide knowledge necessary to interpret the obtained data correctly, takes us to consider tools of a superior level, that provide automatism beyond the monitoring process and they allow us to directly obtain interpretable and useful results for the improvement of the performance of the applications.The architectural proposal, is composed of different phases: from monitoring, detection of problems, classification according to his relevance, analysis of its causes, and the emission of hints on performance that allows us to minimize and/or to make disappear the inefficiencies caused by the performance problems appeared during the execution of the applications.The main goals of the proposed architecture are: a) Ability to specify the performance knowledge, by means of the introduction of knowledge in a form of the structure of the performance problems, and of the analysis of its causes. So, this specification allows us to extend the performance knowledge that every moment can have the tool. b) Independence of the mechanisms of detection of the defined performance problems. c) Independence of environment of message passing used. d) Relation of the problems with the source code of the application, to establish that points are related to the performance problems. e) The emission of useful suggestions/hints facing the end user to provide direct operating points on the code of the application to improve its performance.The experimental results obtained in a tool prototype based on the architecture demonstrate the viability of those of the proposals formulated in this thesis. The tool has been proven with an ample set of parallel and distributed applications to demonstrate this viability, verifying that the methodology is effective, feasible, and profitable and that can be used for a real improvement of the program performance.
83

Estrategias de asignación de programas en computadores paralelos

Senar Rosell, Miquel Àngel 01 November 1996 (has links)
No description available.
84

Robustness aspects of Model Predictive Control

Megías Jiménez, David 07 April 2000 (has links)
Model, Model-based or Receding-horizon Predictive Control (MPC or RHPC) is a successful and mature control strategy which has gained the widespread acceptance of both academia and industry. The basis of these control laws, which have been reported to handle quite complex dynamics, is to perform predictions of the system to be controlled by means of a model. A control profile is then computed to minimise some cost function defined in terms of the predictions and the hypothesised controls. It was soon realised that the first few predictive controllers failed to fulfil essential properties, such as the stability of the nominal closed-loop system. In addition, it was noticed that the discrepancies between the model and the true process, referred to as system uncertainty, can seriously affect the achieved performance. The robustness problem should, thus, be addressed. In this thesis, the problems of nominal stability and robustness are reviewed and investigated. In particular, the accomplishment of constraint specifications in the presence of various sources of uncertainty is a major objective of the methods developed throughout this PhD research. First of all, controllers which guarantee nominal stability, such as the CRHPC and the GPC∞, are highlighted and formulated, and 1-norm counterparts are obtained. The robustness of these strategies in the unconstrained case has been analysed, and it has been concluded that the infinite horizon approach often leads to more convenient performance and robustness results for typical choices of the tuning knobs. Then the constrained case has been undertaken, and min-max controllers based on the global uncertainty approach have been formulated for both 1-norm and 2-norm formulations. For these methods, a band updating algorithm has been suggested to modify the assumed uncertainty bounds on-line. Although both formulations provide similar results, which overcome the classical approach to robustness when constraints are specified, the 1-norm controllers are computationally more efficient, since the optimal control move sequence can be computed with a standard LP problem. Finally, a refinement of the min-max approach which includes the notion that feedback is present in the receding-horizon implementation of predictive controllers, termed as feedback min-max MPC, is shown to overcome some of the drawbacks of the standard min-max approach. / El Control Predictiu Basat en Models (Model, Model-based o Receding-horizon Predictive Control; MPC o RHPC) és una estratègia de control madura i de gran èxit, que ha assolit l'acceptació de les comunitats acadèmica i industrial. La base d'aquest tipus de lleis de control, la capacitat de les quals per treballar amb dinàmiques complexes s'ha documentat en la literatura, és realitzar prediccions del sistema a controlar mitjançant un model. A partir de les prediccions, es calcula un perfil de controls per tal de minimitzar un funció de cost definida en termes de les prediccions i dels controls futurs. Després de les primeres formulacions es van detectar las carències dels controladors predictius per satisfer determinades propietats essencials, com garantir l'estabilitat del sistema nominal en llaç tancat. A més, era ben conegut que les discrepàncies existents entre el model i el procés, denominades incertesa del sistema, podien afectar severament el rendiment. Calia, per tant, abordar el problema de la robustesa. En aquesta tesi es revisa i s'investiguen els problemes de l'estabilitat nominal i la robustesa. En particular, la satisfacció de les especificacions de restriccions en presència de diverses fonts d'incertesa és un objectiu principal dels mètodes desenvolupats al llarg d'aquesta recerca. En primer lloc, s'ha fet una revisió dels controladors que asseguren estabilitat nominal, com el CRHPC i el GPC∞, i s'han suggerit controladors equivalents en norma 1. A continuació, s'ha estudiat la robustesa d'aquestes estratègies en absència de restriccions i s'ha conclòs que l'aproximació d'horitzons infinits condueix, habitualment, a millors resultats pel que fa al rendiment i a la robustesa per a valors típics dels paràmetres de sintonia. Seguidament s'ha tractat el problema de la robustesa en presència de restriccions i s'han formulat controladors min-max, tant en norma 1 com en norma 2, basats en el concepte d'incertesa global. Per a aquests mètodes, s'ha proposat un algorisme d'actualització de les bandes que permet modificar les fites de la incertesa en línia. Tot i que ambdues formulacions proporcionen resultats semblants, que superen els mètodes clàssics de robustesa quan s'especifiquen restriccions, els controladors en norma 1 són més eficients des del punt de vista del temps de còmput, atès que el problema d'optimització es pot resoldre fent servir programació lineal. Finalment, s'han proposat nous controladors basats en un últim avanç de l'aproximació min-max que incorpora la noció que la realimentació és present en la implementació d'horitzó mòbil dels controladors predictius. Aquestes tècniques, anomenades feedback min-max MPC, permeten de superar alguns dels desavantatges de la formulació min-max estàndard. / El Control Predictivo Basado en Modelos (Model, Model-based o Receding-horizon Predictive Control; MPC o RHPC) es una estrategia de control madura y de gran éxito, que ha conseguido la aceptación de las comunidades académica e industrial. La base de este tipo de leyes de control, cuya capacidad para manejar dinámicas complejas se ha documentado en la literatura, es realizar predicciones del sistema a controlar por medio de un modelo. A partir de las predicciones, se calcula un perfil de controles para minimizar una función de coste definida en términos de las predicciones y de los controles futuros. Tras las primeras formulaciones se detectaron las carencias de los controladores predictivos para satisfacer determinadas propiedades esenciales, como garantizar la estabilidad del sistema nominal en lazo cerrado. Además, era bien sabido que las discrepancias existentes entre el modelo y el proceso, denominadas incertidumbre del sistema, podían afectar severamente al rendimiento. El problema de la robustez debía, por tanto, ser abordado. En esta tesis se revisan e investigan los problemas de estabilidad nominal y robustez. En particular, la satisfacción de las especificaciones de restricciones en presencia de varias fuentes de incertidumbre es un objetivo principal de los métodos desarrollados a lo largo de esta investigación. En primer lugar, se han revisado los controladores que aseguran estabilidad nominal, como el CRHPC y el GPC∞ y se han propuesto controladores equivalentes en norma 1. A continuación se ha estudiado la robustez de estas estrategias en ausencia de restricciones y se ha concluido que la aproximación de horizontes infinitos conduce, habitualmente, a mejores resultados en lo referente al rendimiento y a la robustez para valores típicos de los parámetros de sintonía. Seguidamente, se ha tratado el problema de la robustez en presencia de restricciones, y se han formulado controladores min-max, tanto en norma 1como en norma 2, basados en el concepto de incertidumbre global. Para estos métodos, se ha sugerido un algoritmo de actualización de las bandas que permite modificar las cotas de la incertidumbre en línea. Aunque ambas formulaciones proporcionan resultados similares, que superan al enfoque clásico de la robustez cuando se especifican restricciones, los controladores en norma 1 son más eficientes desde el punto de vista de tiempo de cómputo, puesto que el problema de optimización se puede resolver usando programación lineal. Finalmente, se han propuesto otros controladores basados en un último avance de la aproximación min-max que incorpora la noción de que la realimentación está presente en la implementación de horizonte móvil de los controladores predictivos. Estas técnicas, denominadas feedback min-max MPC, permiten superar algunas de las desventajas de la formulación min-max estándar.
85

Address Prediction and Recovery Mechanisms

Morancho Llena, Enric 11 July 2002 (has links)
Uno de los mayores retos que debe ser afrontado por los diseñadores de micro-procesadores es el de mitigar la gran latencia de las instrucciones de carga de datos en registros. Esta tesis analiza una de las posibles alternativas para atacar dicho problema: predicción de direcciones y ejecución especulativa.Varios autores han comprobado que las direcciones efectivas calculadas por las instrucciones de carga son bastante predecibles. En primer lugar, hemos analizado a qué es debida dicha predictabilidad. Este estudio intenta establecer las estructuras típicas presentes en lenguajes de alto nivel que, al ser compiladas, generas instruciones de carga predecibles. También se analizan los predictores convencionales con el objetivo de determinar qué predictores son más adecuados para las típicas aplicaciones.El estudio continúa con la propuesta de nuevos predictores de direcciones que utilizan sus recursos de almacenamiento de forma más eficiente que los previos predictores. Los predictores alamacenan información respecto al comportamiento de las instrucciones de carga; sin embargo, los requisitos de las instrucciones predecibles son diferentes de los de las instrucciones no predecibles. Consecuentemente, se propone una organización de las tablas de predicción que considere la existencia de ambos tipos de instruciones. También se muestra que existe un cierto grado de redundnacia en las tablas de predicción de los predictores. Este estudio propoen organizar las tablas de predicción de forma que se reduzca dicha redundancia. Todas estas propuestas permiten reducir los requisitos de los predictores referentes a espacio de alamacenamiento, sin causar menoscabo en el rendimiento de los predictores.Posteriormente, se evalúa el impacto de la predicción de direcciones en el rendimiento de los processadores. Las evaluaciones asumen que las predicciones se utilizan para iniciar de forma especulativa accessos a memoria y para ejecutar de forma especulativa sus instrucciones dependientes. En caso de una predicción correcta, todo el trabajo realizado de forma especulativa puede considerarse como correcto; en caso de error de predicción, el tranajo realizado especulativamente debe ser descartado. El estudio se centra en diversos aspectos como la interacción entre predicción de direcciones y predicción de saltos, la implementación de mecanismods de verification, los mecanismos re recuperación en casos de errores de predicción y la influencia de varios parámetreos del procesador (el tamaño de la ventana de emisión de instrucciones, la latencia de la memora cache, y la anchura de emisión de instrucciones) en le impacto de la predicción de direcciones en el rendimiento de los procesadores.Finalmente, se han evaluado mechanismos de recuperación para el caso de errores de predicción de latencia. La predicción de latencia es una técnica de ejecución especulativa utilizada por los planificadores de alguncos procesadores superescalares para tratar las instrucciones de latencia variable (por ejemplo, las instrucciones de carga). Nuestras evaluaciones se centran en un mecanismo convencional de recuperación para errores de predicción de latencia y en una nueva propuesta. También se evalúan los mecanismos propuestos en el ámbito de predicción de direcciones. Se concluye con que éstos mecanismos representan una alternativa rentable a los mecanismos de recuperación convencionales utilizados para tratar los errores de predicción de direcciones. / Mitigating the effect of the large latency of load instructions is one of challenges of micro-processor designers. This thesis analyses one of the alternatives for tackling this problem: address prediction and speculative execution.Several authors have noticed that the effective addresses computed by the load instructions are quite predictable. First of all, we study why this predictability appears; our study tries to detect the high-level language structures that are compiled into predictable load instructions. We also analyse the conventional address predictors in order to determine which address predictors are most appropriate for the typical applications.Our study continues by proposing address predictors that use their storage structures more efficiently. Address predictors track history information of the load instructions; however, the requirements of the predictable instructions are different from the requirements of the unpredictable instructions. We then propose an organization of the prediction tables considering the existence of both kinds of instructions. We also show that there is a certain degree of redundancy in the prediction tables of the address predictors. We propose organizing the prediction tables in order to reduce this redundancy. These proposals allow us to reduce the area cost of the address predictors without impacting their performance.After that, we evaluate the impact of address prediction on processor performance. Our evaluations assume that address prediction is used to start speculatively some memory accesses and to execute speculatively their dependent instructions. On a correct prediction, all the speculative work is considered as correct; on a misprediction, the speculative work must be discarded. Our study is focused on several aspects such as the interaction of address prediction and branch prediction, the implementation of verification mechanisms, the recovery mechanism on address mispredictions, and the influence of several processor parameters (the issue-queue size, the cache latency and the issue width) on the performance impact of address prediction. Finally, we evaluate several recovery mechanisms for latency mispredictions. Latency prediction is a speculative technique used by the schedulers of some superscalar processors to deal with variable-latency instructions (for instance, load instructions). Our evaluations are focused on a conventional recovery mechanism for latency mispredictions and a new proposal. We also evaluate the proposed recovery mechanism in the scope of address prediction; we conclude that it represents a cost-effective alternative to the conventional recovery mechanisms used for address mispredictions.
86

Aprendizaje con máquinas núcleo en entornos de multiclasificación

Angulo Bahón, Cecilio 23 May 2001 (has links)
La propiedad de generalización de una máquina de aprendizaje, es decir su capacidad para emitir una respuesta correcta ante una nueva entrada semejante a aquellas con las que ha sido entrenada, es la característica principal que se busca en los sistemas conexionistas supervisados y sirve de justificación en la elección de los principios inductivos y el tipo de estructuras de aprendizaje para elaborar el presente estudio.La regularización o penalización es uno de estos principios que favorecen a nivel teórico la generalización, sobre el cual se ha desarrollado un método de cálculo directo de la matriz de regularización cuando se utiliza como estabilizador un operador diferencial de segundo grado, precisamente aquel que minimiza el grado de convexidad de la función solución, evitando así y el proceso iterativo de cálculo de la matriz hessiana y fijando el tipo de núcleo a ser utilizado.Los nexos de unión entre la regularización y el principio de minimización del riesgo estructural así como las excelentes características teóricas mostradas por este ´ ultimo principio trabajando, por definición, sobre conjuntos finitos de datos y expandiendo su solución sobre un número pequeño de núcleos, han llevado a desplazar el foco de trabajo de numerosos investigadoreshacia las máquinas de soporte vectorial, su materialización procedimental. En este contexto, se ha desarrollado una máquina que permite extender de forma natural el comportamiento binario de estas máquinas núcleo de margen máximo sobre problemas de clasificación hacia una solución ternaria m´asacorde con la estructura geométrica de los datos, en especial en las situaciones habituales de espacios de salida que poseen más de dos clases. El uso de la nueva arquitectura, bautizada K-SVCR,en problemas de multiclasificación resulta más adecuado que las reducciones estándares de problemas multiclase sobre máquinas biclasificadoras en estructuras en paralelo o arbóreas puesto que cada nodo de dicotomía considera todo el espacio de entrenamiento y se fuerza al hiperplano de separación a considerar la estructura geométrica de los patrones de entrenamiento. En especial, se demuestra la robustez del nuevo método ante fallos en las predicciones de algunos de sus nodos de trabajo cuando se considera un tipo especial de combinación de estas respuestas. La nueva arquitectura de multiclasificación ha sido modificada con posterioridad para ser implementada sobre un problema de clasificación con características independientes, la ordenación o problema de aprendizaje de preferencias. Sus prestaciones son evaluadas sobre una aplicación financiera en la determinación de riesgos crediticios. Finalmente, una aplicación de categorización o discriminación de escenarios de depuración donde incide el efecto de la temporalidad sirve también como ejemplo de funcionamiento. / The property of generalization of a learning machine, i.e. its capacity to emit a correct answer on a new similar input to those with wich it has been trained, is the basic behavior looked for in the supervised connexionists systems and it serves as justification in the selection of the inductive principles and the type of learning structures to ellaborate the present study.The penalty is one of these principles that favor at theoretical level the generalization, on which a method of direct calculation of the regularization matrix when a second degree differential operator is used like stabilizer, indeed that diminishing the convexity degree of the solution function, avoiding therefore the iterative process of calculation of the Hessian matrix, has been developed and fixing the type of kernel to be used. Links between regularization and the structural risk minimization principle as well as the excellent theoretical characteristics shown by this last principle working, by definition, on finite data sets and expanding their solution on a small number of kernels, have taken to move the center of study of numerous investigators towards the support vector machines, their procedural materialization. In this context, a machine that allows to extend of natural form the binary behavior of these maximum margin ker-nel machines on classification problems towards an agreed ternary solution with the geometric structure of the data has been developed, in special in the habitual situations of output spaces having more than two classes.The use of the new architecture, named K-SVCR, in multiclassification problems is more suitable than the standard reductions from multiclass problems on biclass machines in tree or parallel structures, since each di-chotomie node considers all the training space and force to the hyperplane of separation to consider the geometric structure of the training patterns.In special, the robustness of the new method is demostrated on failures in the predictions of some of its working nodes when a special type of combination of these answers is considered.The new architecture of multiclassification has been modified later to be implemented on a classification problem with independent characteristics, the ordenation or learning of preferences problem. Their benefits are evaluated on a financial application in the determination of credit risks. Finally, an application of categorization in waste water plant scenes, where the temporality affects, also serves like operation example.
87

Environment learning for indoor mobile robots

Andrade-Cetto, Juan 08 April 2003 (has links)
Aquesta tesi tracta el problema de l'aprenentatge automàtic d'entorns estructurats n robòtica mòbil. Particularment, l'extracció de característiques a partir dels senyals dels sensors, la construcció autònoma de mapes, i l'autolocalització de robots.S'estudien els fonaments matemàtics necessaris per a l'extracció de característiques a partir d'imatges i registres d'un làser, els quals permeten la identificació unívoca dels elements de l'entorn. Els atributs extrets a partir del senyal d'un sol sensor poden ser insuficients quan es volen caracteritzar els elements de l'entorn de forma invariant; això es pot millorar combinant informació de múltiples fonts. Es presenta un nou algorisme per la fusió d'informació complementaria extreta de dos mòduls de visió de baix nivell.Aquesta fusió d'informació produeix descripcions més completes dels objectes de l'entorn, els quals poden ser seguits i apresos dins el context de la robòtica mòbil. Les variacions en les condicions d'il·luminació i les oclusions fan que l'associació de dades en visió per computador sigui una tasca difícil de completar.Tot i això, l'ús de restriccions geomètriques i fotogramètriques permeten reduir la cerca de correspondències entre imatges successives; i al centrar l'atenció en un reduït nombre de característiques, aquestes poden ser seguides en imatges successives, simplificant així el problema d'associació de dades. Es recalquen les tècniques de la geometria de múltiples vistes que són rellevants pel còmput d'una estimació inicial de la posició dels elements de l'entorn, el que permet la reconstrucció del moviment del robot entre imatges successives; situació desitjable quan no existeix odometria o quan las seves lectures són poc fiables.Quan els elements de l'entorn s'han extret i identificat, la segona part del problema consisteix en utilitzar aquestes observacions tant per estimar la posició del robot, com per refinar l'estimació dels mateixos elements de l'entorn. El moviment del robot i les lectures dels sensors es consideren com dos processos estocàstics, i el problema es tracta des del punt de vista de la teoria d'estimació, on el soroll inherent als sensors i al moviment del robot es consideren com a seqüències aleatòries.El principal inconvenient existent en l'ús de tècniques d'estimació pel còmput concurrent de la posició del robot i la construcció d'un mapa, és que fins ara s'ha considerat la seva aplicació únicament en entorns estàtics, i que el seu ús en situacions més realistes ofereix poca robustesa. Es proposa un conjunt de funcions per avaluar la qualitat temporal de les observacions per tal de resoldre les situacions en que les observacions dels elements de l'entorn no siguin consistents en el temps. Es mostra com la utilització d'aquestes proves de qualitat temporal conjuntament amb les proves de compatibilitat espacial milloren els resultats quan es fen servir amb un mètode d'estimació òptima de la construcció concurrent de mapes i l'autolocalització de robots.La idea principal consisteix en emprar un històric dels errors en l'associació de les dades per calcular la possibilitat d'incórrer en nous errors d'associació; i excloure del mapa aquells elements dels quals les observacions no siguin consistents.Es posa especial atenció en el fet que l'eliminació dels elements inconsistents del mapa no violi les propietats dels algorismes de construcció concurrent de mapes i autolocalització descrits en la literatura; és a dir, convergència assimptòtica i correlació completa.Aquesta tesi proporciona també un profund anàlisi del model de construcció concurrent de mapes i autolocalització totalment correlat des d'un punt de vista de la teoria de control de sistemes. Partint del fet que el filtre de Kalman no és més que un estimador òptim, s'analitzen les implicacions de tenir un vector d'estats que es revisa a partir de mesures totalment correladas.Es revela de manera teòrica i amb experiments les limitacions d'utilitzar un enfocament per la construcció concurrent de mapes i l'autolocalització a partir de mesures totalment correladas.El fet de tenir un model parcialment observable inhibeix la reconstrucció total de l'espai d'estats, produint tant mateix una estimació de la posició dels elements de l'entorn que depèn en tot cas de les observacions inicials, i que no garanteix la convergència a una matriu de covariància definida positivament.D'altra banda, el fet de tenir un vector d'estats parcialment controlable fa que, desprès d'un reduït nombre d'iteracions el filtre cregui tenir una estimació perfecta de l'estat dels elements de l'entorn; amb els corresponents guanys de Kalman convergint a zero. Per tant, desprès d'un reduït nombre d'iteracions del filtre, els innovacions no s'utilitzen més. Es mostra com reduir els efectes de la correlació total i de la controlabilitat parcial. A més a més, suposant que el filtre de Kalman és un observador òptim per a la reconstrucció dels estats, és pertinent construir un regulador òptim que permeti conduir el robot el més a prop possible a una trajectòria desitjada durant la construcció d'un mapa. Es mostra com la dualitat existent entre l'observabilitat i la controlabilitat es pot fer servir en el disseny d'aquest regulador òptim.Qualsevol algorisme de construcció concurrent de mapes i autolocalització de robots mòbils que s'ha d'usar en un entorn real ha de ser capaç de relacionar les observacions i els seus corresponents elements del mapa de manera expedita. Algunes de les proves de compatibilitat de les observacions són costoses des del punt de vista de la seva complexitat computacional, i la seva aplicació s'ha de dissenyar amb especial atenció. Es comenten els costos computacionals de les diferents proves de compatibilitat entre observacions; així com altres característiques desitjables de l'estructura de dades que es fa servir per a la construcció del mapa. A més a més es proposen una sèrie de tasques que han de realitzar-se durant l'associació de dades. Començant per les proves de compatibilitat amb un model bàsic dels elements del mapa, i continuant amb la reducció de l'espai de cerca quan es generen hipòtesis d'associació, així com les proves espacial i temporal d'associació de dades.El treball que es presenta en aquesta tesi proposa noves tècniques en àrees de l'enginyera i ciències computacionals, que van des de nous algorismes per la visió per computador, a idees novells de la construcció concurrent de mapes i l'autolocalització de robots mòbils. Les contribucions principals són la proposta d'una nova tècnica per la fusió de dades visuals; la formulació d'un nou algorisme per la construcció concurrent de mapes i l'autolocalització de robots que considera la qualitat temporal dels elements del mapa; nous resultats teòrics en el nivell de reconstrucció possible quan es construeixen mapes a partir d'observacions totalment correladas; i les tècniques necessàries per pal·liar els efectes de l'observabilitat i la controlabilitat parcials, així com els efectes de les no linealitats en la solució del problema de construcció concurrent de mapes i de l'autolocalització. / Esta tesis aborda el problema del aprendizaje automático de entornos estructurados en robótica móvil. Particularmente, la extracción de características a partir de las se nales de los censores, la construcción autónoma de mapas, y la autolocalización de robots.Se estudian los fundamentos matemáticos necesarios para la extracción de características a partir de imágenes y registros de un láser, las cuales permiten la identificación unívoca de los elementos del entorno. Los atributos extraídos a partir de la se nal de un solo sensor pueden ser insuficientes a la hora de caracterizar los elementos del entorno de forma invariante; lo que conlleva a la combinación de información de múltiples fuentes. Se presenta un nuevo algoritmo para la fusión de información complementaria extraída de dos módulos de visión de bajo nivel. Esta fusión de información produce descripciones más completas de los objetos presentes en el entorno, los cuales pueden ser seguidos y aprendidos en el contexto de la robótica móvil.Las variaciones en las condiciones de iluminación y las oclusiones hacen que la asociación de datos en visión por computador sea una tarea difícil de llevar a cabo. Sin embargo, el uso de restricciones geométricas y fotogramétricas permiten reducir la búsqueda de correspondencias entre imágenes; y al centrar la atención en un reducido número de características, estas pueden ser seguidas en imágenes sucesivas, simplificando así el problema de asociación de datos. Se hace hincapié en las técnicas de la geometría de múltiples vistas relevantes para el cómputo de una estimación inicial de la posición de los elementos del entorno, lo cual permite la reconstrucción del movimientodel robot entre imágenes sucesivas; situación deseable cuando se carece de odometría o cuando sus lecturas son poco fiables.Una vez que los elementos del entorno han sido extraídos e identificados, la segunda parte del problema consiste en usar estas observaciones tanto para estimar la posición del robot, como para refinar la estimación de los mismos elementos del entorno. El movimiento del robot y las lecturas de los sensores se consideran como dos procesos estocásticos, y el problema se aborda desde el punto de vista de la teoría de estimación, en donde el ruido inherente a los sensores y al movimiento del robot se consideran como secuencias aleatorias.La principal desventaja existente en el uso de técnicas de estimación para el cómputo concurrente de la posición del robot y la construcción de un mapa, es que hasta ahora se ha considerado su uso en entornos estáticos únicamente, y que su aplicación en situaciones más realistas carece de robustez.Se propone un conjunto de funciones para evaluar la calidad temporal de las observaciones con el fin de solventar aquellas situaciones en que las observaciones de los elementos del entorno no sean consistentes en el tiempo.Se muestra como el uso de estas pruebas de calidad temporal junto con las pruebas de compatibilidad espacial existentes mejora los resultados al usar un método de estimación óptima para la construcción concurrente de mapas y la autolocalización de robots. La idea principal consiste en usar un históricode los errores en la asociación de datos para el cómputo de la posibilidad de incurrir en nuevos errores de asociación; y eliminar del mapa aquellos elementos cuyas observaciones no sean consistentes.Se presta especial atención a que la eliminación de elementos inconsistentes del mapa no viole las propiedades de los algoritmos de construcción concurrente de mapas y autolocalización descritos en la literatura; es decir, convergencia asintótica y correlación completa.Esta tesis proporciona a su vez un análisis en profundidad del modelo de construcción concurrente de mapas y autolocalización totalmente correlado desde un punto de vista de la teoría de control de sistemas. Partiendo del hecho de que el filtro de Kalman no es otra cosa que un estimador óptimo, se analizan las implicaciones de tener un vector de estados que se revisa a partir de mediciones totalmente correladas. Se revela de forma teórica y con experimentos las limitaciones de usar un enfoque para la construcción concurrente de mapas y autolocalización a partir de mediciones totalmente correladas.El hecho de tener un modelo parcialmente observable inhibe la reconstrucción total del espacio de estados, produciendo a su vez una estimación de la posición de los elementos del entorno que dependerá en todo caso de las observaciones iniciales, y que no garantiza la convergencia a una matriz de covarianza positivamente definida. Por otro lado, el hecho de tener un vector de estados parcialmente controlable, produce después de un reducido número de iteraciones que el filtro crea tener una estimación perfecta del estado de los elementos del entorno; con sus correspondientes ganancias de Kalman convergiendo a cero. Esto es, después de un peque no número de iteraciones del filtro, las innovaciones no se usan. Se muestra como reducir los efectos de la correlación total y la controlabilidad parcial. Además, dado que el filtro de Kalman es un observador óptimo para la reconstrucción de los estados, es pertinente construir un regulador óptimo que permita conducir al robot lo más cerca posible de una trayectoria deseada durante la construcción de un mapa. Se muestra como la dualidad existente entre la observabilidad y la controlabilidad se puede emplear en el diseño de este regulador óptimo. Cualquier algoritmo de construcción concurrente de mapas y autolocalización de robots móviles que deba funcionar en un entorno real deberá ser capaz de relacionar las observaciones y sus correspondientes elementos del mapa de manera expedita. Algunas de las pruebas de compatibilidad de las observaciones son caras desde el punto de vista de su complejidad computacional, y su aplicación debe diseñarse con riguroso cuidado. Se comentan los costes computacionales de las distintas pruebas de compatibilidad entre observaciones; así como otras características deseadas de la estructura de datos elegida para la construcción del mapa. Además, se propone una serie de tareas que debe llevarse a cabo durante la asociación de datos. Partiendo por las pruebas de compatibilidad con un modelo básico de los elementos del mapa, y continuando con la reducción del espacio de búsqueda al generar hipótesis de asociación, así como las pruebas espacial y temporal de asociación de datos.El trabajo que se presenta en esta tesis propone nuevas técnicas en áreas de la ingeniería y las ciencias computacionales, que van desde nuevos algoritmos de visión por computador, a ideas noveles en la construcción concurrente de mapas y la autolocalización de robots móviles. Las contribuciones principales son la propuesta de una nueva técnica para la fusión de datos visuales; la formulación de un nuevo algoritmo para la construcción concurrente de mapas y autolocalización de robots que toma en cuenta la calidad temporal de los elementos del mapa; nuevos resultados teóricos en el grado de reconstrucción posible al construir mapas a partir de observaciones totalmente correladas; y las técnicas necesarias para paliar los efectos de la observabilidad y controlabilidad parciales, así como los efectos de las no linealidades en la solución del problema de construcción concurrente de mapas y autolocalización. / This thesis focuses on the various aspects of autonomous environment learning for indoor service robots. Particularly, on landmark extraction from sensor data, autonomous map building, and robot localization. To univocally identify landmarks from sensor data, we study several landmark representations, and the mathematical foundation necessary to extract the features that build them from images and laser range data. The features extracted from just one sensor may not suce in the invariant characterization of landmarks and objects, pushing for the combination of information from multiple sources. We present a new algorithm that fuses complementary information from two low level vision modules into coherent object models that can be tracked and learned in a mobile robotics context. Illumination conditions and occlusions are the most prominent artifactsthat hinder data association in computer vision. By using photogrammetric and geometric constraints we restrict the search for landmark matches in successive images, and by locking our interest in one or a set of landmarks in the scene, we track those landmarks along successive frames, reducing considerably the data association problem. We concentrate on those tools from the geometry of multiple views that are relevant to the computation of initial landmark location estimates for coarse motion recovery; a desirable characteristic when odometry is not available or is highly unreliable.Once landmarks are accurately extracted and identied, the second part of the problem is to use these observations for the localization of the robot, as well as the renement of the landmark location estimates. We consider robot motion and sensor observations as stochastic processes, and treat the problem from an estimation theoretic point of view, dealing with noise by using probabilistic methods.The main drawback we encounter is that current estimation techniques have been devised for static environments, and that they lack robustness in more realistic situations. To aid in those situations in which landmark observations might not be consistent in time, we propose a new set of temporal landmark quality functions, and show how by incorporating these functions in the data association tests, the overall estimation-theoretic approach to map building and localization is improved. The basic idea consists on using the history of data association mismatches for the computation of the likelihood of future data association, together with the spatial compatibility tests already available.Special attention is paid in that the removal of spurious landmarks from the map does not violate the basic convergence properties of the localization and map building algorithms already described in the literature; namely, asymptotic convergence and full correlation.The thesis also gives an in depth analysis of the fully correlated model to localization and map building from a control systems theory point of view. Considering the fact that the Kalman .lter is nothing else but an optimal observer, we analyze the implications of having a state vector that is being revised by fully correlated noise measurements. We end up revealingtheoretically and with experiments the strong limitations of using a fully correlated noise driven estimation theoretic approach to map building and localization in relation to the total number of landmarks used. Partial observability hinders full reconstructibility of the state space, making the .nal map estimate dependant on the initial observations, and does not guarantee convergence to a positive de nite covariance matrix. Partial controllability on the other hand, makes the .lter beleive after a number of iterations, that it has accurate estimates of the landmark states, with their corresponding Kalman gains converging to zero. That is, after a few steps, innovations are useless. We show how to palliate the e.ects of full correlationand partial controllability. Furthermore, given that the Kalman .lter is an optimal observer for the reconstruction of fully correlated states; it seems pertinent to build an optimal regulator in order to keep the robot as close as possible to a desired motion path when building a map. We show also how the duality between observability and controllability can be exploited in designing such an optimal regulator. Any map building and localization algorithm for mobile robotics that is to work in real time must be able to relate observations and model matches in an expeditious way. Some of the landmark compatibility tests are computationally expensive, and their application has to be carefully designed. We touch upon the time complexity issues of the various landmark compatibility tests used, and also on the desirable properties of our chosen map data structure.Furthermore, we propose a series of tasks that must be handled when dealing with landmark data association. From model compatibility tests, to search space reduction and hypothesis formation, to the actual association of observations and models. The work presented in this thesis spans several areas of engineering and computer science, from new computer vision algorithms, to novel ideas in mobile robot localization and map building. The key contributions are the proposal of a new technique to fuse visual data; the formulation of new algorithms to concurrent localization and map building that take into account temporal landmark quality; new theoretical results on the degree of reconstruction possible when building maps from fully correlated observations; and the necessary techniques to palliate partial observability, partial controllability, and the nonlinear e.ects when solving the simultaneous localization and map building problem.
88

YAM^2: a multidimensional conceptual model

Abelló Gamazo, Alberto 26 April 2002 (has links)
ABRSTRACTThis thesis proposes YAM^2, a multidimensional conceptual model for OLAP(On-Line Analytical Processing). It is defined as an extension of UML (Unified Modeling Language). The aim is to benefit from Object-Oriented concepts and relationships to allow the definition of semantically rich multi-star schemas. Thus, the usage of Generalization, Association, Derivation, and Flow relationships (in UML terminology) is studied.An architecture based on different levels of schemas is proposed and the characteristics of its different levels defined. The benefits of this architecture are twofold. Firstly, it relates Federated Information Systems with Data Warehousing, so that advances in one area can also be used in the other. Moreover, the Data Mart schemas are defined so that they can be implemented on different Database Management Systems, while still offering a common integrated vision that allows to navigate through the different stars.The main concepts of any multidimensional model are facts and dimensions. Both are analyzed separately, based on the assumption that relationships between aggregation levels are part-whole (or composition) relationships. Thus, mereology axioms are used on that analysis to prove some properties.Besides structures, operations and integrity constraints are also defined for YAM^2. Due to the fact that, in this thesis, a data cube is defined as a function, operations (i.e. Drill-across, ChangeBase, Roll-up, Projection, and Selection) are defined over functions. Regarding the set of integrity constraints, they reflect the importance of summarizability (or aggregability) of measures, and pay special attention to it. / Esta tesis propone YAM^2, un modelo conceptual multidimensional para OLAP (On-Line Analytical Processing). Éste se define como una extensión de UML (Unified Modeling Language). La intención es beneficiarse de los conceptos y relaciones de la Orientación a Objetos para permitir la definición de esquemas multi-estrella semánticamente ricos. Así, se estudia la utilización de relaciones de tipo Generalization, Association, Derivation, y Flow (en terminología UML).Se propone también una arquitectura basada en diferentes niveles de esquemas, y se estudian las características de cada uno de esos niveles. De esta arquitectura se obtienen dos beneficios. Primeramente, relaciona los Sistemas de Información Federados con los Almacenes de Datos, de manera que los avances en una de las áreas se puedan utilizar en la otra. Además, los esquemas de los Almacenes de Datos Departamentales son definidos de forma que estos se pueden implementar sobre diferentes Sistemas de Gestión de Bases de Datos, al mismo tiempo que ofrecen una visión común e integrada, que permite navegar entre las diferentes estrellas.Los principales conceptos de cualquier modelo multidimensional son los hechos y las dimensiones. Ambos son estudiados de forma independiente, basado en la asunción de que las relaciones entre los niveles de agregación son de tipo parte-todo (o composición). Así, los axiomas de la mereología son utilizados en ese análisis para demostrar algunas propiedades.Juntamente con las estructuras, operaciones y restricciones de integridad son también definidas para YAM^2. Debido al hecho de que, en esta tesis, un cubo de datos es definido como una función, la operaciones (Drill-across, ChangeBase, Roll-up, Projection, y Selection) son definidas sobre funciones. Respecto al conjunto de restricciones de integridad, estas reflejan la importancia de la sumarizabilidad (o agregabilidad) de las medidas, y presta especial atención a ello. / Aquesta tesi proposa YAM^2, un model conceptual multidimensional per OLAP (On-Line Analytical Processing). El model es defineix com una extensió d'UML (Unified Modeling Language). La intenció és aprofitar conceptes i relacions de la Orientació a Objectes per permetre la definició d'esquemes multi-estrella semànticament rics. Així, s'estudia la utilització de relacions del tipus Generalization, Association, Derivation, i Flow (utilitzant la terminologia d'UML).Es proposa una arquitectura basada en diferents nivells d'esquemes i es defineixen les característiques dels nivells. Els beneficis d'aquesta arquitectura tenen dues vessants. Primerament, relaciona els Sistemes d'Informació Federats amb els Magatzems de Dades, de manera que els avenços en els primers es puguin utilitzar en els segons. A més, els Magatzems de Dades Departamentals es defineixen de manera que es puguin implementar en Sistemes Gestors de Bases de Dades diferents, al mateix temps que ofereixen una visió integrada que permet navegar a través de diferents estrelles.Els principals conceptes de qualsevol model multidimensionals són els fets i les dimensions. Ambdós són analitzats de forma separada, basat en l'assumpció que les relacions entre els nivells d'agregació són de tipus part-tot (o composició). Així, els axiomes de la mereologia són utilitzats en l'anàlisi per provar algunes propietats.Juntament amb les estructures, operacions i restriccions d'integritat han estat definides per YAM^2. Degut al fet que, en aquesta tesi, un cub de dades es definit com una funció, les operacions (Drill-across, ChangeBase, Roll-up, Projection, i Selection) són definides sobre funcions. Respecte al conjunt de restriccions d'integritat, aquestes reflecteixen la importància de la sumaritzabilitat (o agregabilitat) de les mesures, i paren especial atenció a ella.
89

Elaboració de mapes de precipitació a partir d'imatges infraroges de satèl.lit

Tarruella Boixadera, Ramon 14 June 2002 (has links)
El present treball analitza l'aplicabilitat de diferents tècniques, originalment ideades per al tractament de xàfecs que fan ús d'imatges IR de satèl·lit per estimar la precipitació amb una finalitat climatològica en la nostra regió.S'han estudiat les tècniques d'Arkin, NAW i "Autoestimator" al llarg del període entre juliol de 1994 i juny de 1995, amb una temporalització mensual, estacional i anyal. L'àmbit geogràfic ha estat l'estat espanyol exceptuant les illes Canàries i s'ha treballat com un conjunt o dividit en tres zones, nord i nord-oest, litoral mediterrani i centre i sud de la península. En cada cas s'han aplicat les tècniques originals a les imatges METEOSAT corresponents (24 o 48 diàries, depenent de la tècnica), i s'han estudiat i aplicat aquelles modificacions que proporcionaven millors resultats en la regió analitzada.Les principals conclusions a que s'ha arribat són les següents:· La utilització de tècniques de determinació de precipitació a partir d'imatges IR de satèl·lit presenta avantatges (extensió territorial i temporal) front tècniques basades en observacions en terra. El fet que la determinació de la precipitació en una imatge IR es faci de manera indirecta, obliga a calibrar aquestes tècniques per a cada zona geogràfica.Tècnica d'Arkin:· De les tècniques analitzades la d'Arkin és la més simple i ràpida d'aplicar. Els valors originals de temperatura llindar i intensitat de precipitació no s'adapten a la nostra zona geogràfica. Una temperatura llindar més elevada (255 o 260 K) amb una intensitat de precipitació menor ( 0.5 o 0.4 mm/h) s'adequa més.· En general la tècnica proporciona pobres correlacions per als mesos d'hivern, sent més altes en els mesos de tardor i estiu.Tècnica NAW:· La tècnica NAW original millora lleugerament la correlació respecte la tècnica d'Arkin, però sobreestima fortament la precipitació. Assignacions de precipitació menors que les originals són necessàries per eliminar les sobreestimacions del mètode.· L'aplicació de discriminants per increment de temperatura no millora les correlacions excepte en el litoral mediterrani.· Els mesos de tardor i estiu presenten les millors correlacions, i els d'hivern les pitjors.Tècnica "Autoestimator":· La tècnica "Autoestimator" no millora, en general els resultats de les tècniques d'Arkin i NAW. L'equació original sobreestima la precipitació en gairebé tots els mesos. Les modificacions introduïdes en l'equació original milloren les correlacions disminuint les sobreestimacions del mètode. Cal una calibració de la tècnica per a cada zona concreta i per a cada estació particular si es vol que la tècnica presenti estimacions fiables de la precipitació.Comparació de les tres tècniques:· Les tres tècniques tenen moltes dificultats en separar els núvols que aporten precipitació d'aquells que no en porten. Aquest fet pot explicar les baixes correlacions en mesos amb poca precipitació però en què les imatges mostren la presència abundant de núvols.· En el conjunt de l'any la tècnica NAW té la correlació més alta seguida de molt a prop per la d'Arkin. NAW és la que sobreestima més i Arkin la que menys. Per mesos Arkin sembla seguir millor les variacions, estimant correctament la precipitació en els mesos de tardor. La tècnica "Autoestimator" sembla reflectir millor la precipitació per episodis concrets.· Les estimacions de totes les tècniques millorarien si es tingués en compte la quantitat de vapor d'aigua present en l'atmosfera. / The aim of this work is to analyse the ability of different techniques, based on infrared satellite images and used in the study of heavy rainfall, to estimate the rainfall in our area for climatic purposes. The Arkin, NAW and Autoestimator techniques are applied during the period July 1994-June 1995, using different temporal steps (month, seasonal and annual). The studies have been applied to Spain, excluding Canary Islands. This area was divided in three sub-areas: north and north-west, Mediterranean coast, and centre and south of the peninsula. The three areas were processed together or individually. The original techniques were applied to the METEOSAT images (24 or 48 per day). We studied different improvements of the techniques and applied systematically the best for our climatic area. The main conclusions achieved are:· The use of techniques to determine the rainfall using IR satellite images is the more suitable than techniques based on land observations. These methods must be calibrated for every geographic area because the rainfall determination using the IR images is an indirect method.Arkin technique:· The Arkin the simplest and easiest technique to be applied. The original values of threshold temperature and rainrate are not suitable to the geographic area studied. A higher threshold temperature (255 o 260 K) joined to a smaller rainrate (0.5-0.4 mm/h) fit better results.· Generally, the technique gives poor correlation for the winter months, and higher correlation for the autumn and summer months.NAW technique:· The original NAW technique gives a little better correlation than the Arkin technique, but NAW shows some important rainfall overestimates. To remove the overestimates of the method lower rainrates than the original ones must be set.· Empirical discriminations based on temperature difference into a cloud don't improve the correlation except for the Mediterranean area.· Autumn and summer months show the best correlations, and the winter ones the worst.Autoestimator technique:· In general, the Autoestimator technique doesn't improve the Arkin and NAW results. The original equation overestimates almost months. The modifications included give better correlations, decreasing the overestimates of the method.· For every single area and station the techniques must be calibrated if reliable rainfall estimates are desirable.Comparison of the techniques:· All techniques used have a lot of difficulties to discriminate the clouds that give or don't give rainfall. This could be the reason for the low correlations for months with low rainfall but IR images that shows a lot of clouds.· For the whole year NAW technique has the best correlation, similar to Arkin method. NAW gives the most overestimates and Arkin shows the lowest overestimates. Arkin defines better the variations by months, fitting the rainfall properly for the autumn months. The Autoestimator technique shows better results for particular episode. · The estimates for all methods will improve if the water vapour present in the atmosphere is taken into account.
90

L Universite de Vincennes : La normalisation et l influence

Krönkvist, Sarah January 2009 (has links)
No description available.

Page generated in 0.0361 seconds