• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 16
  • 14
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 80
  • 80
  • 29
  • 20
  • 18
  • 17
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Prédiction de l'espace navigable par l'approche ensembliste pour un véhicule routier / Characterization of the vehicle stable state domain using interval analysis

Dandach, Hoda 01 July 2014 (has links)
Les travaux de cette thèse porte sur le calcul d’un espace d’état navigable d’un véhicule routier, ainsi que sur l’observation et l’estimation de son état, à l’aide des méthodes ensemblistes par intervalles. Dans la première partie de la thèse, nous nous intéressons aux problèmes d’estimation d’état relevant de la dynamique du véhicule. Classiquement, l’estimation se fait en utilisant le filtrage de Kalman pour des problèmes d’estimation linéaires ou le filtrage de Kalman étendu pour les cas non-linéaires. Ces filtres supposent que les erreurs sur le modèle et sur les mesures sont blanches et gaussiennes. D’autre part, les filtres particulaires (PF), aussi connus comme Méthodes de Monte-Carlo séquentielles, constituent souvent une alternative aux filtres de Kalman étendus. Par contre, les performances des filtres PF dépendent surtout du nombre de particules utilisées pour l’estimation, et sont souvent affectées par les bruits de mesures aberrants. Ainsi, l’objectif principal de cette partie de travail est d’utiliser une des méthodes à erreurs bornées, qui est le filtrage par boites particulaires (Box Particle Filter (BPF)), pour répondre à ces problèmes. Cette méthode généralise le filtrage particulaire à l’aide des boites remplaçant les particules. A l’aide de l’analyse par intervalles, l’estimation de certains variables fortement reliées à la dynamique du véhicule comme le transfert de charge latérale, le roulis et la vitesse de roulis est donnée, à chaque instant, sous forme d’un intervalle contenant la vraie valeur simulée. Dans la deuxième partie de la thèse, une nouvelle formalisation du problème de calcul de l’espace navigable de l’état d’un véhicule routier est présentée. Un algorithme de résolution est construit, basé sur le principe de l’inversion ensembliste par intervalles et sur la satisfaction des contraintes. Nous cherchons à caractériser l’ensemble des valeurs de la vitesse longitudinale et la dérive au centre de gravité qui correspondent à un comportement stable du véhicule : pas de renversement ni dérapage. Pour décrire le risque de renversement, nous avons utilisé l’indicateur de transfert de charge latéral (LTR). Pour décrire le risque de dérapage, nous avons utilisé les dérives des roues. Toutes les variables sont liées géométriquement avec le vecteur d’état choisi. En utilisant ces relations, l’inversion ensembliste par intervalles est appliquée afin de trouver l’espace navigable de l’état tel que ces deux risques sont évités. L’algorithme Sivia est implémenté, approximant ainsi cet espace. Une vitesse maximale autorisée au véhicule est déduite. Elle est associée à un angle de braquage donné sur une trajectoire connue. / In this thesis, we aim to characterize a vehicle stable state domain, as well as vehicle state estimation, using interval methods.In the first part of this thesis, we are interested in the intelligent vehicle state estimation.The Bayesian approach is one of the most popular and used approaches of estimation. It is based on the calculated probability of the density function which is neither evident nor simple all the time, conditioned on the available measurements.Among the Bayesian approaches, we know the Kalman filter (KF) in its three forms(linear, non linear and unscented). All the Kalman filters assume unimodal Gaussian state and measurement distributions. As an alternative, the Particle Filter(PF) is a sequential Monte Carlo Bayesian estimator. Contrary to Kalman filter,PF is supposed to give more information about the posterior even when it has a multimodal shape or when the noise follows non-Gaussian distribution. However,the PF is very sensitive to the imprecision due by bias or noise, and its efficiency and accuracy depend mainly on the number of propagated particles which can easily and significantly increase as a result of this imprecision. In this part, we introduce the interval framework to deal with the problems of the non-white biased measurements and bounded errors. We use the Box Particle Filter (BPF), an estimator based simultaneously on the interval analysis and on the particle approach. We aim to estimate some immeasurable state from the vehicle dynamics using the bounded error Box Particle algorithm, like the roll angle and the lateral load transfer, which are two dynamic states of the vehicle. BPF gives a guaranteed estimation of the state vector. The box encountering the estimation is guaranteed to encounter thereal value of the estimated variable as well.In the second part of this thesis, we aim to compute a vehicle stable state domain.An algorithm, based on the set inversion principle and the constraints satisfaction,is used. Considering the longitudinal velocity and the side slip angle at the vehicle centre of gravity, we characterize the set of these two state variables that corresponds to a stable behaviour : neither roll-over nor sliding. Concerning the roll-over risk,we use the lateral transfer ratio LTR as a risk indicator. Concerning the sliding risk, we use the wheels side slip angles. All these variables are related geometrically to the longitudinal velocity and the side slip angle at the centre of gravity. Using these constraints, the set inversion principle is applied in order to define the set ofthe state variables where the two mentioned risks are avoided. The algorithm of Sivia is implemented. Knowing the vehicle trajectory, a maximal allowed velocityon every part of this trajectory is deduced.
42

Estatística e a teoria de conjuntos fuzzy / Statistic and fuzzy set theory

González Campos, José Alejandro, 1979- 03 June 2015 (has links)
Orientadores: Víctor Hugo Lachos Dávila, Alexandre Galvão Patriota / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-27T08:57:41Z (GMT). No. of bitstreams: 1 GonzalezCampos_JoseAlejandro_D.pdf: 1384046 bytes, checksum: 50ce1df9dcb6387479bcfdd819262218 (MD5) Previous issue date: 2015 / Resumo: A teoria de conjuntos fuzzy é uma teoria nova introduzida por Zadeh no ano 1965. Estes últimos anos tem tido uma frutífera massificação, atingindo variados campos da ciência. Neste trabalho são distinguidas três dimensões: A teoria de conjuntos fuzzy de maneira pura, conexões da estatística e a teoria dos conjuntos fuzzy (interpretação e visualização) e finalmente a estatística aplicada a dados fuzzy. São apresentadas as definições elementares da teoria de conjuntos fuzzy, tais como: número fuzzy, core e conjuntos fuzzy normais, de maneira a se fazer a tese autocontida. Baseada na primeira dimensão foi definida uma nova forma de ordem nos números fuzzy LR-Type, caracterizada pela sua simplicidade nos cálculos onde a ordem dos números reais fica como uma situação particular quando estes são considerados números fuzzy. Esta proposta supera muitas das limitações de outras propostas de ordem, como a indeterminação e indefinição. A definição de uma ordem permitirá obter ferramentas estatísticas como a mediana e medidas de variabilidade. Na segunda dimensão é apresentada uma nova ferramenta de interpretação das regiões de confiança depois de observada a amostra. É definida uma função de membership que representa de maneira fuzzy o espaço paramétrico dependendo de cada região de confiança. Também é apresentada uma nova forma de visualização de uma sequencia infinita de regiões de confiança. Finalmente, na terceira dimensão é estudada a generalização do estimador de Kaplan-Meier na situação que os tempos de vida são considerados como números fuzzy, abrindo uma linha de pesquisa baseado nas suas propriedades assintóticas. Nesta seção é utilizado um exemplo típico de analises de sobrevivência. Este trabalho de tese apresenta as bases teóricas elementares para dar início a uma nova linha de pesquisa, atendendo a nossa natureza humana e tentar escapar de supostos platônicos / Abstract: The fuzzy sets theory is a new theory introduced by Zadeh in 1965. These past years have been a fruitful massification, reaching diverse fields of science. This work distinguishes three dimensions: A fuzzy set theory in a pure way, connections statistics and the theory of fuzzy sets (interpretation and visualization) and finally applied statistics to fuzzy data. The basic definitions of the fuzzy sets theory are presented, such as fuzzy number, core and normal fuzzy sets, the way to make the thesis self-contained. Based on the first dimension was defined a new order in the LR-type fuzzy numbers. It is characterized by its simplicity in calculations where the order of the real numbers is a particular situation when they are considered fuzzy numbers. This proposal overcomes many of the limitations of other order proposed, such as the indetermination and indefiniteness. The definition of an order will allow to get statistical tools such as median and variability measures. In the second dimension is presented a new tool for the interpretation of confidence regions after the sample was observed. Is defined a function of membership that representing the parametric space of fuzzy way depending of each confidence region. Also is presented a new form of visualization of an infinite sequence of confidence regions. Finally, in the third dimension is studied the generalization of the Kaplan-Meier estimator, in which the lifetime is considered as fuzzy number, opening a line of research around their asymptotic properties. In this section a typical example of survival analysis is used. This thesis work presents the basic theoretical foundations to begin a new line of research, given our human nature and to try to escape from Platonic assumptions / Doutorado / Estatistica / Doutor em Estatística
43

Robust strategies for glucose control in type 1 diabetes

Revert Tomás, Ana 15 October 2015 (has links)
[EN] Type 1 diabetes mellitus is a chronic and incurable disease that affects millions of people all around the world. Its main characteristic is the destruction (totally or partially) of the beta cells of the pancreas. These cells are in charge of producing insulin, main hormone implied in the control of blood glucose. Keeping high levels of blood glucose for a long time has negative health effects, causing different kinds of complications. For that reason patients with type 1 diabetes mellitus need to receive insulin in an exogenous way. Since 1921 when insulin was first isolated to be used in humans and first glucose monitoring techniques were developed, many advances have been done in clinical treatment with insulin. Currently 2 main research lines focused on improving the quality of life of diabetic patients are opened. The first one is concentrated on the research of stem cells to replace damaged beta cells and the second one has a more technological orientation. This second line focuses on the development of new insulin analogs to allow emulating with higher fidelity the endogenous pancreas secretion, the development of new noninvasive continuous glucose monitoring systems and insulin pumps capable of administering different insulin profiles and the use of decision-support tools and telemedicine. The most important challenge the scientific community has to overcome is the development of an artificial pancreas, that is, to develop algorithms that allow an automatic control of blood glucose. The main difficulty avoiding a tight glucose control is the high variability found in glucose metabolism. This fact is especially important during meal compensation. This variability, together with the delay in subcutaneous insulin absorption and action causes controller overcorrection that leads to late hypoglycemia (the most important acute complication of insulin treatment). The proposals of this work pay special attention to overcome these difficulties. In that way interval models are used to represent the patient physiology and to be able to take into account parametric uncertainty. This type of strategy has been used in both the open loop proposal for insulin dosage and the closed loop algorithm. Moreover the idea behind the design of this last proposal is to avoid controller overcorrection to minimize hypoglycemia while adding robustness against glucose sensor failures and over/under- estimation of meal carbohydrates. The algorithms proposed have been validated both in simulation and in clinical trials. / [ES] La diabetes mellitus tipo 1 es una enfermedad crónica e incurable que afecta a millones de personas en todo el mundo. Se caracteriza por una destrucción total o parcial de las células beta del páncreas. Estas células son las encargadas de producir la insulina, hormona principal en el control de glucosa en sangre. Valores altos de glucosa en la sangre mantenidos en el tiempo afectan negativamente a la salud, provocando complicaciones de diversa índole. Es por eso que los pacientes con diabetes mellitus tipo 1 necesitan recibir insulina de forma exógena. Desde que se consiguiera en 1921 aislar la insulina para poder utilizarla en clínica humana, y se empezaran a desarrollar las primeras técnicas de monitorización de glucemia, se han producido grandes avances en el tratamiento con insulina. Actualmente, las líneas de investigación que se están siguiendo en relación a la mejora de la calidad de vida de los pacientes diabéticos, tienen fundamentalmente 2 vertientes: una primera que se centra en la investigación en células madre para la reposición de las células beta y una segunda vertiente de carácter más tecnológico. Dentro de esta segunda vertiente, están abiertas varias líneas de investigación, entre las que se encuentran el desarrollo de nuevos análogos de insulina que permitan emular más fielmente la secreción endógena del páncreas, el desarrollo de monitores continuos de glucosa no invasivos, bombas de insulina capaces de administrar distintos perfiles de insulina y la inclusión de sistemas de ayuda a la decisión y telemedicina. El mayor reto al que se enfrentan los investigadores es el de conseguir desarrollar un páncreas artificial, es decir, desarrollar algoritmos que permitan disponer de un control automático de la glucosa. La principal barrera que se encuentra para conseguir un control riguroso de la glucosa es la alta variabilidad que presenta su metabolismo. Esto es especialmente significativo durante la compensación de las comidas. Esta variabilidad junto con el retraso en la absorción y actuación de la insulina administrada de forma subcutánea favorece la aparición de hipoglucemias tardías (complicación aguda más importante del tratamiento con insulina) a consecuencia de la sobreactuación del controlador. Las propuestas presentadas en este trabajo hacen especial hincapié en sobrellevar estas dificultades. Así, se utilizan modelos intervalares para representar la fisiología del paciente, y poder tener en cuenta la incertidumbre en sus parámetros. Este tipo de estrategia se ha utilizado tanto en la propuesta de dosificación automática en lazo abierto como en el algoritmo en lazo cerrado. Además la principal idea de diseño de esta última propuesta es evitar la sobreactuación del controlador evitando hipoglucemias y añadiendo robustez ante fallos en el sensor de glucosa y en la estimación de las comidas. Los algoritmos propuestos han sido validados en simulación y en clínica. / [CAT] La diabetis mellitus tipus 1 és una malaltia crònica i incurable que afecta milions de persones en tot el món. Es caracteritza per una destrucció total o parcial de les cèl.lules beta del pàncrees. Aquestes cèl.lules són les encarregades de produir la insulina, hormona principal en el control de glucosa en sang. Valors alts de glucosa en la sang mantinguts en el temps afecten negativament la salut, provocant complicacions de diversa índole. És per això que els pacients amb diabetis mellitus tipus 1 necessiten rebre insulina de forma exògena. Des que s'aconseguís en 1921 aïllar la insulina per a poder utilitzar-la en clínica humana, i es començaren a desenrotllar les primeres tècniques de monitorització de glucèmia, s'han produït grans avanços en el tractament amb insulina. Actualment, les línies d'investigació que s'estan seguint en relació a la millora de la qualitat de vida dels pacients diabètics, tenen fonamentalment 2 vessants: un primer que es centra en la investigació de cèl.lules mare per a la reposició de les cèl.lules beta i un segon vessant de caràcter més tecnològic. Dins d' aquest segon vessant, estan obertes diverses línies d'investigació, entre les que es troben el desenrotllament de nous anàlegs d'insulina que permeten emular més fidelment la secreció del pàncrees, el desenrotllament de monitors continus de glucosa no invasius, bombes d'insulina capaces d'administrar distints perfils d'insulina i la inclusió de sistemes d'ajuda a la decisió i telemedicina. El major repte al què s'enfronten els investigadors és el d'aconseguir desenrotllar un pàncrees artificial, és a dir, desenrotllar algoritmes que permeten disposar d'un control automàtic de la glucosa. La principal barrera que es troba per a aconseguir un control rigorós de la glucosa és l'alta variabilitat que presenta el seu metabolisme. Açò és especialment significatiu durant la compensació dels menjars. Aquesta variabilitat junt amb el retard en l'absorció i actuació de la insulina administrada de forma subcutània afavorix l'aparició d'hipoglucèmies tardanes (complicació aguda més important del tractament amb insulina) a conseqüència de la sobreactuació del controlador. Les propostes presentades en aquest treball fan especial insistència en suportar aquestes dificultats. Així, s'utilitzen models intervalares per a representar la fisiologia del pacient, i poder tindre en compte la incertesa en els seus paràmetres. Aquest tipus d'estratègia s'ha utilitzat tant en la proposta de dosificació automàtica en llaç obert com en l' algoritme en llaç tancat. A més, la principal idea de disseny d'aquesta última proposta és evitar la sobreactuació del controlador evitant hipoglucèmies i afegint robustesa. / Revert Tomás, A. (2015). Robust strategies for glucose control in type 1 diabetes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/56001 / TESIS
44

Guaranteed Localization and Mapping for Autonomous Vehicles / Localisation et cartographie garanties pour les véhicules autonomes

Wang, Zhan 19 October 2018 (has links)
Avec le développement rapide et les applications étendues de la technologie de robot, la recherche sur le robot mobile intelligent a été programmée dans le plan de développement de haute technologie dans beaucoup de pays. La navigation autonome joue un rôle de plus en plus important dans le domaine de recherche du robot mobile intelligent. La localisation et la construction de cartes sont les principaux problèmes à résoudre par le robot pour réaliser une navigation autonome. Les techniques probabilistes (telles que le filtre étendu de Kalman et le filtre de particules) ont longtemps été utilisées pour résoudre le problème de localisation et de cartographie robotisées. Malgré leurs bonnes performances dans les applications pratiques, ils pourraient souffrir du problème d'incohérence dans les scénarios non linéaires, non gaussiens. Cette thèse se concentre sur l'étude des méthodes basées sur l'analyse par intervalles appliquées pour résoudre le problème de localisation et de cartographie robotisées. Au lieu de faire des hypothèses sur la distribution de probabilité, tous les bruits de capteurs sont supposés être bornés dans des limites connues. Sur la base d'une telle base, cette thèse formule le problème de localisation et de cartographie dans le cadre du problème de satisfaction de contraintes d'intervalle et applique des techniques d'intervalles cohérentes pour les résoudre de manière garantie. Pour traiter le problème du "lacet non corrigé" rencontré par les approches de localisation par ICP (Interval Constraint Propagation), cette thèse propose un nouvel algorithme ICP traitant de la localisation en temps réel du véhicule. L'algorithme proposé utilise un algorithme de cohérence de bas niveau et est capable de diriger la correction d'incertitude. Par la suite, la thèse présente un algorithme SLAM basé sur l'analyse d'intervalle (IA-SLAM) dédié à la caméra monoculaire. Une paramétrisation d'erreur liée et une initialisation non retardée pour un point de repère naturel sont proposées. Le problème SLAM est formé comme ICSP et résolu par des techniques de propagation par contrainte d'intervalle. Une méthode de rasage pour la contraction de l'incertitude historique et une méthode d'optimisation basée sur un graphique ICSP sont proposées pour améliorer le résultat obtenu. L'analyse théorique de la cohérence de la cartographie est également fournie pour illustrer la force de IA-SLAM. De plus, sur la base de l'algorithme IA-SLAM proposé, la thèse présente une approche cohérente et peu coûteuse pour la localisation de véhicules en extérieur. Il fonctionne dans un cadre en deux étapes (enseignement visuel et répétition) et est validé avec un véhicule de type voiture équipé de capteurs de navigation à l'estime et d'une caméra monoculaire. / With the rapid development and extensive applications of robot technology, the research on intelligent mobile robot has been scheduled in high technology development plan in many countries. Autonomous navigation plays a more and more important role in the research field of intelligent mobile robot. Localization and map building are the core problems to be solved by the robot to realize autonomous navigation. Probabilistic techniques (such as Extented Kalman Filter and Particle Filter) have long been used to solve the robotic localization and mapping problem. Despite their good performance in practical applications, they could suffer the inconsistency problem in the non linear, non Gaussian scenarios. This thesis focus on study the interval analysis based methods applied to solve the robotic localization and mapping problem. Instead of making hypothesis on the probability distribution, all the sensor noises are assumed to be bounded within known limits. Based on such foundation, this thesis formulates the localization and mapping problem in the framework of Interval Constraint Satisfaction Problem and applied consistent interval techniques to solve them in a guaranteed way. To deal with the “uncorrected yaw” problem encountered by Interval Constraint Propagation (ICP) based localization approaches, this thesis proposes a new ICP algorithm dealing with the real-time vehicle localization. The proposed algorithm employs a low-level consistency algorithm and is capable of heading uncertainty correction. Afterwards, the thesis presents an interval analysis based SLAM algorithm (IA-SLAM) dedicates for monocular camera. Bound-error parameterization and undelayed initialization for nature landmark are proposed. The SLAM problem is formed as ICSP and solved via interval constraint propagation techniques. A shaving method for landmark uncertainty contraction and an ICSP graph based optimization method are put forward to improve the obtaining result. Theoretical analysis of mapping consistency is also provided to illustrated the strength of IA-SLAM. Moreover, based on the proposed IA-SLAM algorithm, the thesis presents a low cost and consistent approach for outdoor vehicle localization. It works in a two-stage framework (visual teach and repeat) and is validated with a car-like vehicle equipped with dead reckoning sensors and monocular camera.
45

Contribution à l'agrandissement de l'espace de travail opérationnel des robots parallèles. Vérification du changement de mode d'assemblage et commande pour la traversée des singularités / Contribution to enlargement of parallel robot operationnal workspace. Detection of assembly mode change and advanced control for singularity crossing

Koessler, Adrien 19 December 2018 (has links)
En comparaison avec leurs homologues sériels, les robots parallèles possèdent de nombreux avantages : rigidité, temps de cycle et précision de positionnement. La faible taille de leur espace de travail opérationnel est cependant un inconvénient qui empêche leur développement. L’analyse cinématique décrit la division de l’espace de travail total en aspects, séparés entre eux par des singularités de Type 2. Parmi les solutions d’élargissement de l’espace de travail opérationnel issues de la littérature, que sont comparées entre elles, nous retiendrons la traversée des singularités grâce à une génération de trajectoire et une loi de commande dédiées. Cette solution est cependant sujette aux échecs de traversée et ne permet pas de certifier la réussite de l’opération. La première partie du travail consiste donc à développer un outil permettant de détecter le résultat des traversées. De tels algorithmes n’existent pas dans la littérature ; en effet, les solveurs du problème géométrique direct ne peuvent pas donner de résultats appropriés à proximité des singularités. Cependant les méthodes ensemblistes proposent une manière intéressante de tenir compte de la cinématique du robot. Nous nous basons sur cette considération pour développer un algorithme réalisant le suivi de la pose ainsi que de la vitesse de l’effecteur du robot. En simulation, nous démontrons sa capacité à détecter les changements de mode d’assemblage et son utilité pour générer des trajectoires permettant la traversée. La deuxième problématique consiste à améliorer le suivi de trajectoire par l’utilisation de techniques de commande avancée. Une revue de littérature nous permet d’identifier la commande adaptative et la commande prédictive comme deux schémas intéressants pour notre application. La synthèse d’un loi de commande adaptative par des outils linéaires est proposée et complétée par la prédiction des paramètres dynamiques suivant la méthode Predcitive Functionnal Control. Les gains apportés par les lois de commande proposées sont évalués en simulation. Afin de valider ces contributions, elles sont implémentées sur un robot parallèle plan à deux degrés de liberté nommé DexTAR. Nécessaire à la mise en oeuvre de l’algorithme de détection du mode d’assemblage, un étalonnage géométrique du robot est réalisé et les paramètres estimés sont certifiés de manière ensembliste. La capacité de l’algorithme à statuer sur le mode d’assemblage final est ensuite évaluée sur des trajectoires réelles. Ces résultats sont comparés avec ceux obtenus en simulation. De plus, les lois de commande développées sont implémentées sur le robot DexTAR et testés dans des cas de figure réalistes comme les traversées multiples ou la saisie d’objets.Les propositions formulées dans ce manuscrit permettent de répondre à ces problématiques, afin de faciliter l’utilisation des méthodes d’agrandissement de l’espace de travail par traversée de singularité de Type 2. / Compared to their serial counterparts, parallel robots have the edge in terms of rigidity,cycle time and positioning precision. However, the reduced size of their operationalworkspace is a drawback that limits their use in the industry. Kinematic analysis explainshow the workspace is divided in aspects, separated from each others by so-called Type 2singularities. Among existing solutions for workspace enlargement, which are evaluatedin this thesis, we chose to work on a method based on singularity crossing. This can beachieved thanks to dedicated trajectory generators and control strategies. Yet, failuresin crossing can still happen and crossing success cannot be certified.In consequence, the first part of the thesis consists in the development of an algorithmable to state on the results of a crossing attempt. Such a tool does not exist inthe literature, since solvers for the forward kinematics of parallel robots diverge aroundsingularities. Nonetheless, interval methods allow to bypass this problem by trackingend-effector velocity alongside with its pose. The ability of the algorithm to detect assemblymode change is proven in simulation, and its usefulness for reliable trajectoryplanning is shown.In a second part, we seek to improve trajectory tracking through the use of advancedcontrol techniques. A review on those techniques showed adaptive control and predictivecontrol methods to be well-fitted to our application. Linear synthesis of articularadaptive control is proposed and then derived in order to predict dynamic parametersthanks to the Predictive Functional Control method. Efficiency of the proposed controllaws is evaluated in simulation.1In order to validate both contributions, algorithms and control laws are implementedon a 2-degree of freedom planar parallel robot named DexTAR. As it is mandatory forassembly mode detection, the kinematic calibration of the robot is completed from whichcertified geometric parameters are derived. Assembly mode detection is performed onreal trajectories and results are compared to those obtained in simulation. Moreover,adaptive and predictive control laws are tested in realistic cases of singularity crossingand object manipulation.Overall, proposed contributions answer the problems that were stated previously andform an improvement to the workspace enlargement method based on Type 2 singularitycrossing.
46

Localisation multi-capteurs garantie : résolution d'un problème de satisfaction de contraintes / Guaranteed multi-sensor localisation : solving a constraint satisfaction problem

Kueviakoe, Kangni 30 September 2014 (has links)
Cette thèse traite de la localisation de véhicule. Plusieurs méthodes sont utilisées pour résoudre ce type de problème. Elles peuvent être classées en deux grandes catégories d’approches : les approches probabilistes et les approches déterministes.Ce travail aborde les approches déterministes et plus précisément l'approche ensembliste basée sur l'analyse par intervalles. Les travaux ont été conduits sur des jeux de données réelles collectées en environnements d'extérieur comprenant des capteurs proprioceptifs et extéroceptifs.Lorsque l'on met en jeu plusieurs capteurs fournissant des informations complémentaires ou redondantes, il est important de fusionner les données afin d'améliorer la pose estimée. L'approche détaillée dans ce document utilise les méthodes intervalles et présente le problème de la localisation sous la forme d'un problème de satisfaction de contraintes.La résolution se fait à l'aide d’un solveur à intervalles. Plusieurs algorithmes ont été comparés. Un constat s'est dégagé : les algorithmes de consistance locale ne corrigent pas l'incertitude sur l’orientation. Cette thèse propose une méthode de localisation utilisable dans des applications temps réel et qui corrige l'incertitude sur le cap du véhicule. Nous avons comparé nos résultats à ceux du filtre de Kalman étendu (méthode probabiliste de référence) et mis en avant un des intérêts de notre méthode : l'assurance d'une consistance de la pose (position et orientation du mobile).Cette thèse propose deux contributions. La première est d'ordre méthodologique. Dans l'état de l'art tous les travaux affirment la nécessité (voire l'obligation) d'une décomposition préalable des contraintes du problème avant l'étape de résolution. Nos travaux permettent de prouver le contraire. La deuxième contribution concerne la réduction du domaine de l'incertitude en orientation en couplant la propagation de contraintes et une approche de bissection. / This thesis deals with the vehicle locationand addresses the problem of SLAM (simultaneous localization and mapping). Several methods are used to solve this kind of problem. They can be classified into two broad categories of approaches: probabilistic approach and deterministic approaches. This work addresses the deterministic approaches and more precisely the approach based on interval analysis. The work has been conducted on real data sets collected in outdoor environments with proprioceptive and exteroceptive sensors.When multiple sensors providing complementary or redundant information are put into play, it is important to merge the data to improve the estimated pose. The approach detailed in this document uses the intervals methods and presents the localization problem as a constraint satisfaction problem.The resolution is done using a solver interval. Several solvers were compared. One thing is clear: local consistency algorithms do not address the uncertainty of the orientation. This thesis proposes a method of locating usable in real time applications and corrects the uncertainty in the heading of the vehicle. We compared our results with those of the extended Kalman filter (probabilistic reference method) and highlighted one of the interests of our method: the assurance of consistency of the pose (position and orientation of the mobile).This thesis proposes two contributions. The first is methodological. In the state of the art all works affirm the need (or obligation) to pre-decompose the constraints of the problem before the resolution step. Our work allows to prove otherwise. The second contribution relates to the reduction of the orientation uncertainty by combining constraint propagation and a bisection approach.
47

Estudo do impacto da variabilidade geométrica no comportamento cinemático e dinâmico de manipuladores robóticos paralelos com redundância cinemática / A study on the impact of geometrical variability on the kinematic and dynamic behavior of parallel kinematic manipulators with kinematic redundancies

Bastos, Renzo Fernandes 09 November 2016 (has links)
Manipuladores robóticos com cinemática paralela apresentam alta rigidez, alta relação carga/peso próprio e boa precisão quando comparados a manipuladores de cinemática serial. No entanto, a região de trabalho dos manipuladores paralelos é limitada devido à presença de singularidade. Com o objetivo de aumentar a região de trabalho, redundâncias cinemáticas podem ser introduzidas nas cadeias cinemáticas. Devido à sua arquitetura paralela, a incerteza nos parâmetros geométricos pode ter grande influência no comportamento cinemático e no desempenho dinâmico. O estudo do impacto dessas incertezas quando redundâncias são introduzidas em uma manipulador robótico planar de cinemática paralela é o objetivo desse trabalho. Distribuições normais foram adotadas para a avaliação do comprimento dos elos. O impacto dessas variações foi avaliado numericamente através da comparação de resultados da simulação de trajetórias para os diferentes manipuladores robóticos. Além disso, verificou-se o impacto dessas variações nas regiões de singularidades dos sistemas robóticos. Essas avaliações numéricas foram realizadas para o manipulador robótico 3(P)RRR. Este manipulador consiste de 3 cadeias cinemáticas em paralelo. Cada cadeia apresenta uma junta prismática ativa (P), uma junta de revolução ativa (R) e duas juntas de revolução passivas (RR). Através desse trabalho, uma metodologia de avaliação do impacto de incerteza geométricas em manipuladores robóticos paralelos com redundância de atuação foi proposta e investigada. / Parallel kinematic manipulators present higher rigidity, better load capacity and improved accuracy when compared to serial kinematic manipulators. However, the workspace of parallel kinematic manipulator is usually limited due to the presence of singularity regions. In order to enlarge the workspace, kinematic redundancy can be introduced in the kinematic chains. Due to its parallel architecture, the uncertainty and variability of some geometric parameters may have great influence on its kinematic behavior and dynamic performance. The impact of these variabilities when redundancies are considered should also be verified. The aim of this study is to evaluate some geometric uncertainties in the links\' dimensions of a planar parallel robot manipulator with kinematic redundancy. Normal distributions are adopted for evaluating the variability of length of the links. The impact of these changes was evaluated numerically by comparing the results obtained by simulating trajectories for different robotic manipulators. In addition, the impact of these variabilities in the singularity regions is also assessed. These numerical evaluations have been performed for the redundant manipulator 3(P)RRR. This manipulator consists of three kinematic chains in parallel. Each chain has an active prismatic joint (P), an active revolute joint (R) and two passive revolute joints (RR). Through this work, a methodology for assessing the impact of geometric uncertainty in parallel robotic manipulators with kinematic redundancy has been proposed and investigated.
48

Interval Based Parameter Identification for System Biology / Intervallbaserad parameteridentifiering för systembiologi

Alami, Mohsen January 2012 (has links)
This master thesis studies the problem of parameter identification for system biology. Two methods have been studied. The method of interval analysis uses subpaving as a class of objects to manipulate and store inner and outer approximations of compact sets. This method works well with the model given as a system of differential equations, but has its limitations, since the analytical expression for the solution to the ODE is not always obtainable, which is needed for constructing the inclusion function. The other method, studied, is SDP-relaxation of a nonlinear and non-convex feasibility problem. This method, implemented in the toolbox bio.SDP, works with system of difference equations, obtained using the Euler discretization method. The discretization method is not exact, raising the need of bounding this discretization error. Several methods for bounding this error has been studied. The method of ∞-norm optimization, also called worst-case-∞-norm is applied on the one-step error estimation method. The methods have been illustrated solving two system biological problems and the resulting SCP have been compared. / Det här examensarbetet studerar problemet med parameteridentifiering för systembiologi. Två metoder har studerats. Metoden med intervallanalys använder union av intervallvektorer som klass av objekt för att manipulera och bilda inre och yttre approximationer av kompakta mängder. Denna metod fungerar väl för modeller givna som ett system av differentialekvationer, men har sina begränsningar, eftersom det analytiska uttrycket för lösningen till differentialekvationen som är nödvändigt att känna till för att kunna formulera inkluderande funktioner, inte alltid är tillgängliga. Den andra studerade metoden, använder SDP-relaxering, som ett sätt att komma runt problemet med olinjäritet och icke-konvexitet i systemet. Denna metod, implementerad i toolboxen bio.SDP, utgår från system av differensekvationer, framtagna via Eulers diskretiserings metod. Diskretiseringsmetoden innehåller fel och osäkerhet, vilket gör det nödvändigt att estimera en gräns för felets storlek. Några felestimeringsmetoder har studerats. Metoden med ∞-norm optimering, också kallat worst-case-∞-norm är tillämpat på ett-stegs felestimerings metoder. Metoderna har illustrerats genom att lösa två system biologiska problem och de accepterade parametermängderna, benämnt SCP, har jämförts och diskuterats.
49

Interval methods for global optimization

Moa, Belaid 22 August 2007 (has links)
We propose interval arithmetic and interval constraint algorithms for global optimization. Both of these compute lower and upper bounds of a function over a box, and return a lower and an upper bound for the global minimum. In interval arithmetic methods, the bounds are computed using interval arithmetic evaluations. Interval constraint methods instead use domain reduction operators and consistency algorithms. The usual interval arithmetic algorithms for global optimization suffer from at least one of the following drawbacks: - Mixing the fathoming problem, in which we ask for the global minimum only, with the localization problem, in which we ask for the set of points at which the global minimum occurs. - Not handling the inner and outer approximations for epsilon-minimizer, which is the set of points at which the objective function is within epsilon of the global minimum. - Nothing is said about the quality for their results in actual computation. The properties of the algorithms are stated only in the limit for infinite running time, infinite memory, and infinite precision of the floating-point number system. To handle these drawbacks, we propose interval arithmetic algorithms for fathoming problems and for localization problems. For these algorithms we state properties that can be verified in actual executions of the algorithms. Moreover, the algorithms proposed return the best results that can be computed with given expressions for the objective function and the conditions, and a given hardware. Interval constraint methods combine interval arithmetic and constraint processing techniques, namely consistency algorithms, to obtain tighter bounds for the objective function over a box. The basic building block of interval constraint methods is the generic propagation algorithm. This explains our efforts to improve the generic propagation algorithm as much as possible. All our algorithms, namely dual, clustered, deterministic, and selective propagation algorithms, are developed as an attempt to improve the efficiency of the generic propagation algorithm. The relational box-consistency algorithm is another key algorithm in interval constraints. This algorithm keeps squashing the left and right bounds of the intervals of the variables until no further narrowing is possible. A drawback of this way of squashing is that as we proceed further, the process of squashing becomes slow. Another drawback is that, for some cases, the actual narrowing occurs late. To address these problems, we propose the following algorithms: - Dynamic Box-Consistency algorithm: instead of pruning the left and then the right bound of each domain, we alternate the pruning between all the domains. - Adaptive Box-Consistency algorithm: the idea behind this algorithm is to get rid of the boxes as soon as possible: start with small boxes and extend them or shrink them depending on the pruning outcome. This adaptive behavior makes this algorithm very suitable for quick squashing. Since the efficiency of interval constraint optimization methods depends heavily on the sharpness of the upper bound for the global minimum, we must make some effort to find the appropriate point or box to use for computing the upper bound, and not to randomly pick one as is commonly done. So, we introduce interval constraints with exploration. These methods use non-interval methods as an exploratory step in solving a global optimization problem. The results of the exploration are then used to guide interval constraint algorithms, and thus improve their efficiency.
50

Reliable robot localization : a constraint programming approach over dynamical systems / Localisation fiable de robots : une approche de programmation par contraintes sur des systèmes dynamiques

Rohou, Simon 11 December 2017 (has links)
Aujourd’hui, la localisation de robots sous-marins demeure une tâche complexe. L’utilisation de capteurs habituels est impossible sous la surface, tels que ceux reposant sur les systèmes de géolocalisation par satellites. Les approches inertielles sont quant à elles limitées par leur forte dérive dans le temps. De plus, les fonds marins sont généralement homogènes et non structurés, rendant difficile l’utilisation de méthodes SLAM connues, qui couplent la localisation et la cartographie de manière simultanée. Il devient donc nécessaire d’explorer de nouvelles alternatives. Notre approche consiste à traiter un problème de SLAM de manière purement temporelle. L’originalité de ce travail est de représenter le temps comme une variable classique qu’il faut estimer. Cette stratégie soulève de nouvelles opportunités dans le domaine de l’estimation d’état, permettant de traiter de nombreux problèmes sous un autre angle. Toutefois, une telle résolution temporelle demande un ensemble d’outils théoriques qu’il convient de développer. Cette thèse n’est donc pas seulement une contribution dans le monde de la robotique mobile, elle propose également une nouvelle démarche dans les domaines de la propagation de contraintes et des méthodes ensemblistes. Cette étude apporte de nouveaux outils de programmation par contracteurs qui permettent le développement de solveurs pour des systèmes dynamiques. Les composants étudiés sont mis en application tout au long de ce document autours de problèmes robotiques concrets. / The localization of underwater robots remains a challenging issue. Usual sensors, such as Global NavigationSatellite System (GNSS) receivers, cannot be used under the surface and other inertial systems suffer from a strong integration drift. On top of that, the seabed is generally uniform and unstructured, making it difficult to apply usual Simultaneous Localization and Mapping (SLAM) methods to perform a localization.Hence, innovative approaches have to be explored. The presented method can be characterized as a raw-data SLAM approach, but we propose a temporal resolution – which differs from usual methods – by considering time as a standard variable to be estimated. This concept raises new opportunities for state estimation, under-exploited so far. However, such temporal resolution is not straightforward and requires a set of theoretical tools in order to achieve the main purpose of localization.This thesis is thus not only a contribution in the field of mobile robotics, it also offers new perspectives in the areas of constraint programming and set-membership approaches. We provide a reliable contractor programming framework in order to build solvers for dynamical systems. This set of tools is illustrated throughout this document with realistic robotic applications.

Page generated in 0.0936 seconds