• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 12
  • 4
  • Tagged with
  • 33
  • 14
  • 13
  • 12
  • 11
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertainties

Safadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
22

Fusion ensembliste de donn´ees pour la surveillance des personnes d´ependantes en habitat intelligent / Set-membership data fusion for monitoring elderly people in smart-homes

Amri, Mohamed-Hédi 07 December 2015 (has links)
Mes travaux de recherches en thèse s’inscrivent dans le cadre du projet FUIE-monitorâge. L’objectif du projet, réunissant de nombreux partenaires industriels et universitaires, est d’améliorer la prise en charge individualisée et la sécurité du résident dans les établissements d’hébergement pour personnes âgées dépendantes(EHPAD). Dans ce travail, nous avons élaboré une méthode de fusion de données multimodales issues des différents capteurs installés dans un smart home. Ces informations sont utilisées pour la localisation intérieure des personnes afin de surveiller leurs activités journalières. Généralement, les mesures issues des capteurs sont soumises à des incertitudes. Dans nos travaux, ces erreurs sont supposées inconnues mais bornées. En tenant compte de cette hypothèse, une méthode de résolution d’un problème d’estimation d’état est élaborée en se basant sur des calculs ensemblistes. Notre algorithme de filtrage ensembliste comporte deux étapes. La première, dite de prédiction, est basée sur l’utilisation d’un modèle de marche aléatoire avec des hypothèses minimales (vitesse de déplacement maximale) pour prédire la zone où se trouve la personne. La deuxième étape, dite de correction, consiste à utiliser la mesure pour affiner cette zone. Cette étape utilise une technique de propagation de contraintes relâchée, q-relaxed intersection, pour permettre une meilleure robustesse par rapport aux données aberrantes. Notre algorithme est capable de quantifier, par un intervalle, l’incertitude commise sur les positions de cibles en mouvement tout en détectant les défauts de capteurs. / Our research work is a part of the project FUI 14 FEDER Collectivités E-monitor’âge. This project takes place within the framework of Ambient Assisted Living (AAL) which aims to improve the safety and the comfort of elderly people living in smart nursing homes. This work aims to monitor the activities of elderly persons using information from different sensors. The ADL (Activities of Daily Living) are used to evaluate the ability of the person to perform on their own a selection of the activities which are essential for an independent living in the everyday life. Generally, process knowledge and measurements coming from sensors are prone to indeterminable noise. In our work, we suppose that these errors are unknown but bounded. Taking into account this hypothesis, we show how to solve the estimation issue using set-membership computations techniques. Our algorithm, based on set-membership approach, consists of two steps. The prediction step, based on the use of a random walk mobility with minimum assumptions (maximum speed of moving), employs the previous state estimate to provide the prediction zone where the person may be located. The correction step uses the informations coming from the sensors to refine this predicted zone. This step uses a relaxed constraints propagation technique, q-relaxed intersection, to deal with faulty measurements. This proposed method allows us to compute the uncertainty domain for the reconstructed localization of moving targets as dealing with outliers.
23

Contributions au vol en formation serrée de petits drones / Contributions to Tight Formation Flight Control of Small UAS

Bolting, Jan 26 September 2017 (has links)
Les mini-drones à propulsion électrique sont susceptibles d’avoir une endurance inférieure à celle de drones plus grands.L’exploitation des interactions aérodynamiques, inspirée par les oiseaux migratoires, ainsi que le ravitaillement en vol , sont des approches prometteuses pour améliorer l’endurance des mini-drones. La commande par modes glissants d’ordre supérieur en temps continu (CTHOSM) a été considérée comme un candidat prometteur à ce problème ouvert difficile et a été appliquée avec succès à des modèles cinématiques simples. Dans nos travaux, nous étudions les implications de la présence de la dynamique de la boucle interne et de l’implémentation en temps discret à des taux d’échantillonnage modérés et constatons alors que l’application de la commande CTHOSM devient impossible. Nous proposons donc un schéma de guidage prédictif discret par modes glissants pour approximer les performances de la commande CTHOSM pour une dynamique réaliste du drone. On propose également un problème de référence accessible pour d'autres chercheurs. Les algorithmes de localisation probabilistes existants ne permettent pas la caractérisation de régions de confiance garanties de la position des autres membres de la formation. Dans ce contexte, nous proposons un nouveau filtre ensembliste caractérisant de telles régions de confiance sous forme ellipsoïdale. Nos premières évaluations ont montré que les efforts de calcul induits par cette mise en œuvre restent parfaitement compatibles avec les contraintes des systèmes avioniques des petits drones. / Small, electrically driven unmanned aircraft are likely to suffer from inferior endurance compared to their larger counterparts. Upwash exploitation by tight formation flight, as well as aerial recharging are the most promising control-driven approaches to mitigate this disadvantage. Continuous time higher order sliding mode control (CTHOSM) has been considered as a candidate for this challenging open problem and was successfully applied to simple kinematic models in simulation, where excellent relative position tracking performance can be demonstrated. In this work we study the implications of the presence of inner loop dynamics and discrete implementation at moderate sampling rates and we find that it precludes the application of CTHOSM control to fixed-wing UAS. We propose a predictive discrete sliding mode guidance scheme to approximate the performance of CTHOSM control assuming realistic fixed-wing UAS dynamics. We show that the proposed guidance scheme in combination with inner load factor tracking loops and a disturbance observer allows for relative position tracking performance compatible with the requirements of upwash exploitation. We propose as well an openly accessible benchmark problem. Existing probabilistic localization algorithms cannot provide guaranteed confidence regions of the relative position between UAS. We present a set membership filter that provides ellipsoidal regions guaranteed to contain the relative positions of the other UAS. It is compatible with the hardware constraints of small low-cost UAS. Simulations suggest computational efforts compatible with the computational resources typically available onboard small UAS.
24

State estimation and trajectory planning using box particle kernels / Estimation d'état et planification de trajectoire par mixtures de noyaux bornés

Merlinge, Nicolas 29 October 2018 (has links)
L'autonomie d'un engin aérospatial requière de disposer d'une boucle de navigation-guidage-pilotage efficace et sûre. Cette boucle intègre des filtres estimateurs et des lois de commande qui doivent dans certains cas s'accommoder de non-linéarités sévères et être capables d'exploiter des mesures ambiguës. De nombreuses approches ont été développées à cet effet et parmi celles-ci, les approches particulaires présentent l'avantage de pouvoir traiter de façon unifiée des problèmes dans lesquels les incertitudes d’évolution du système et d’observation peuvent être soumises à des lois statistiques quelconques. Cependant, ces approches ne sont pas exemptes de défauts dont le plus important est celui du coût de calcul élevé. D'autre part, dans certains cas, ces méthodes ne permettent pas non plus de converger vers une solution acceptable. Des adaptations récentes de ces approches, combinant les avantages du particulaire tel que la possibilité d'extraire la recherche d'une solution d'un domaine local de description et la robustesse des approches ensemblistes, ont été à l'origine du travail présenté dans cette thèse.Cette thèse présente le développement d’un algorithme d’estimation d’état, nommé le Box Regularised Particle Filter (BRPF), ainsi qu’un algorithme de commande, le Box Particle Control (BPC). Ces algorithmes se basent tous deux sur l’utilisation de mixtures de noyaux bornés par des boites (i.e., des vecteurs d’intervalles) pour décrire l’état du système sous la forme d’une densité de probabilité multimodale. Cette modélisation permet un meilleur recouvrement de l'espace d'état et apporte une meilleure cohérence entre la prédite et la vraisemblance. L’hypothèse est faite que les incertitudes incriminées sont bornées. L'exemple d'application choisi est la navigation par corrélation de terrain qui constitue une application exigeante en termes d'estimation d'état.Pour traiter des problèmes d’estimation ambiguë, c’est-à-dire lorsqu’une valeur de mesure peut correspondre à plusieurs valeurs possibles de l’état, le Box Regularised Particle Filter (BRPF) est introduit. Le BRPF est une évolution de l’algorithme de Box Particle Filter (BPF) et est doté d’une étape de ré-échantillonnage garantie et d’une stratégie de lissage par noyau (Kernel Regularisation). Le BRPF assure théoriquement une meilleure estimation que le BPF en termes de Mean Integrated Square Error (MISE). L’algorithme permet une réduction significative du coût de calcul par rapport aux approches précédentes (BPF, PF). Le BRPF est également étudié dans le cadre d’une intégration dans des architectures fédérées et distribuées, ce qui démontre son efficacité dans des cas multi-capteurs et multi-agents.Un autre aspect de la boucle de navigation–guidage-pilotage est le guidage qui nécessite de planifier la future trajectoire du système. Pour tenir compte de l'incertitude sur l'état et des contraintes potentielles de façon versatile, une approche nommé Box Particle Control (BPC) est introduite. Comme pour le BRPF, le BPC se base sur des mixtures de noyaux bornés par des boites et consiste en la propagation de la densité d’état sur une trajectoire jusqu’à un certain horizon de prédiction. Ceci permet d’estimer la probabilité de satisfaire les contraintes d’état au cours de la trajectoire et de déterminer la séquence de futures commandes qui maintient cette probabilité au-delà d’un certain seuil, tout en minimisant un coût. Le BPC permet de réduire significativement la charge de calcul. / State estimation and trajectory planning are two crucial functions for autonomous systems, and in particular for aerospace vehicles.Particle filters and sample-based trajectory planning have been widely considered to tackle non-linearities and non-Gaussian uncertainties.However, these approaches may produce erratic results due to the sampled approximation of the state density.In addition, they have a high computational cost which limits their practical interest.This thesis investigates the use of box kernel mixtures to describe multimodal probability density functions.A box kernel mixture is a weighted sum of basic functions (e.g., uniform kernels) that integrate to unity and whose supports are bounded by boxes, i.e., vectors of intervals.This modelling yields a more extensive description of the state density while requiring a lower computational load.New algorithms are developed, based on a derivation of the Box Particle Filter (BPF) for state estimation, and of a particle based chance constrained optimisation (Particle Control) for trajectory planning under uncertainty.In order to tackle ambiguous state estimation problems, a Box Regularised Particle Filter (BRPF) is introduced.The BRPF consists of an improved BPF with a guaranteed resampling step and a smoothing strategy based on kernel regularisation.The proposed strategy is theoretically proved to outperform the original BPF in terms of Mean Integrated Square Error (MISE), and empirically shown to reduce the Root Mean Square Error (RMSE) of estimation.BRPF reduces the computation load in a significant way and is robust to measurement ambiguity.BRPF is also integrated to federated and distributed architectures to demonstrate its efficiency in multi-sensors and multi-agents systems.In order to tackle constrained trajectory planning under non-Gaussian uncertainty, a Box Particle Control (BPC) is introduced.BPC relies on an interval bounded kernel mixture state density description, and consists of propagating the state density along a state trajectory at a given horizon.It yields a more accurate description of the state uncertainty than previous particle based algorithms.A chance constrained optimisation is performed, which consists of finding the sequence of future control inputs that minimises a cost function while ensuring that the probability of constraint violation (failure probability) remains below a given threshold.For similar performance, BPC yields a significant computation load reduction with respect to previous approaches.
25

Techniques de détection de défauts à base d’estimation d’état ensembliste pour systèmes incertains / Fault detection techniques based on set-membership state estimation for uncertain systems

Ben Chabane, Sofiane 13 October 2015 (has links)
Cette thèse propose une nouvelle approche de détection de défauts pour des systèmes linéaires soumis à des incertitudes par intervalles, des perturbations et des bruits de mesures bornés. Dans ce contexte, la détection de défauts est fondée sur une estimation ensembliste de l'état du système. Les contributions de cette thèse concernent trois directions principales :- La première partie propose une méthode d'estimation d'état ensembliste améliorée combinant l'estimation à base des zonotopes (qui offre une bonne précision) et l'estimation à base d'ellipsoïdes (qui offre une complexité réduite).- Dans la deuxième partie, une nouvelle approche d'estimation d'état ellipsoïdale fondée sur la minimisation du rayon de l'ellipsoïde est développée. Dans ce cadre, des systèmes multivariables linéaires invariants dans le temps, ainsi que des systèmes linéaires variants dans le temps ont été considérés. Ces approches, résolues à l'aide de problèmes d'optimisation sous la forme d'Inégalités Matricielles Linéaires, ont été étendues au cas des systèmes soumis à des incertitudes par intervalles.- Dans la continuité des approches précédentes, deux techniques de détection de défauts ont été proposées dans la troisième partie utilisant les méthodes d'estimation ensemblistes. La première technique permet de détecter des défauts capteur en testant la cohérence entre le modèle et les mesures. La deuxième technique fondée sur les modèles multiples permet de traiter simultanément les défauts actionneur/composant/capteur. Une commande prédictive Min-Max a été développée afin de déterminer la commande optimale et le meilleur modèle à utiliser pour le système, malgré la présence des différents défauts. / This thesis proposes a new Fault Detection approach for linear systems with interval uncertainties, bounded perturbations and bounded measurement noises. In this context, the Fault Detection is based on a set-membership state estimation of the system. The main contributions of this thesis are divided into three parts:- The first part proposes an improved method which combines the good accuracy of the zonotopic set-membership state estimation and the reduced complexity of the ellipsoidal set-membership estimation.- In the second part, a new ellipsoidal state estimation approach based on the minimization of the ellipsoidal radius is developed, leading to Linear Matrix Inequality optimization problems. In this context, both multivariable linear time-invariant systems and linear time-variant systems are considered. An extension of these approaches to systems with interval uncertainties is also proposed. - In the continuity of the previous approaches, two Fault Detection techniques have been proposed in the third part based on these set-membership estimation techniques. The first technique allows to detect sensor faults by checking the consistency between the model and the measurements. The second technique is based on Multiple Models. It deals with actuator/component/sensor faults in the same time. A Min-Max Model Predictive Control is developed in order to find the optimal control and the best model to use for the system in spite of the presence of these faults.
26

Etude et génération de formes d'ondes "ad hoc" pour les communications. : Une approche algébrique pour l'étude de l'efficacité spectrale et la réduction du PAPR dans les TDCS / Waveform design for communications : An algebraic approach to study TDCS’ spectral efficiency and address the PAPR problem

Fumat, Guillaume 02 December 2011 (has links)
Avec le besoin croissant en bande-passante, les technologies dites de radio-cognitive sont de plus en plus étudiées par la communauté scientifique. L’enjeu est d’utiliser au mieux le spectre disponible. L'une de ces technologies, Transform Domain Communication System (TDCS), dont les performances en termes d’efficacité énergétique et spectrale étaient jusqu'à présent méconnues, constitue le sujet d'étude de cette thèse. Après une présentation du contexte scientifique et industriel de la thèse, le système TDCS est introduit, ainsi que ses similarités et différences avec OFDM et MC-CDMA. Le système est ensuite décrit sous le formalisme algébrique des modulations linaires. Cela a permis d’établir une expression de l’efficacité spectrale du système. Plusieurs techniques sont alors proposées pour améliorer celle-ci tout en améliorant, dans certains cas, le taux d’erreur binaire. Étant composé d’un de plusieurs composantes sinusoïdales, le signal TDCS souffre d’un fort Peak-to-Average Power Ratio (PAPR). La théorie ensembliste est alors présentée puis mise à profit en troisième partie de cette thèse pour proposer les algorithmes Douglas-Rachford et ROCS de réduction du PAPR des signaux TDCS. Ces algorithmes convergent plus rapidement et vers des valeurs plus basses que l’algorithme POCS précédemment utilisé dans la littérature / For about ten years, spectrum scarcity and the growing need of bandwidth have pushed the studies on cognitive-radio technologies to counter this waste. Among them: the Transform Domain Communication System (TDCS), on which this thesis focuses. Until now, TDCS’ performance in terms of spectral and power efficiency was largely unknown. After introducing the thesis’ industrial and scientific context, the TDCS is introduced and compared with popular technologies such as OFDM and MC-CDMA. The system is then studied by means of the linear modulations’ algebraic framework. This has led to the TDCS’ spectral efficiency determination and to new design rules to jointly achieve a better spectral efficiency and a lower BER. Several methods are then proposed to further increase the spectral efficiency by means of a dense multidimensional modulation. Since a TDCS signal is made of several sines, it suffers from a strong Peak-to-Average Power Ratio (PAPR). Set theoretic estimation is then introduced in a third part and new PAPR-reduction algorithms such as Douglas-Rachford and Reflection Onto Convex Sets are brought to light and achieve better performance than the usual POCS algorithm regarding to the convergence rate, as well as the achieved PAPR
27

Architectures pour des systèmes de localisation et de cartographie simultanées / Architectures for simultaneous localization and mapping systems

Vincke, Bastien 03 December 2012 (has links)
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l’embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L’implantation optimisée d’un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d’adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d’un système à base d’une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l’approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d’une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie. / Mobile robotics is a growing field. One important research area is Simultaneous Localization And Mapping (SLAM). Algorithms commonly used in SLAM are generally expensive in terms of computing power. The current trend towards miniaturization imposes to restrict the embedded processing units. All these observations lead us to integrate SLAM algorithms on dedicated architectures suitable for embedded systems.The first work was to define an architecture for a mobile robot to localize itself. This architecture must satisfy some constraints, including the real-time, small dimensions and low power consumption. The optimized implementation of a SLAM algorithm, using the best architectural characteristics of the system (capacity of processors, multi-core implementation, SIMD instructions or parallelization on heterogeneous architecture), has demonstrated the ability to design embedded systems for SLAM applications in the context of Hardware-Software codesign.A second approach has been explored with the aim of designing a system based on a reconfigurable architecture (FPGA-based) for a highly parallel architecture dedicated to SLAM. The defined architecture was evaluated using a HIL (Hardware in the Loop) methodology.The main SLAM algorithms use the probabilistic theories, they do not guarantee their localization results. A SLAM algorithm based on interval analysis is defined to guarantee the overall results. Several algorithmic improvements are then proposed. A comparison with probabilistic algorithms highlighted the robustness of the approach.This thesis put forward two main contributions. The first is to affirm the importance of the hardware software codesign to solve the problem of SLAM with real-time constraint. The second is the definition of a new algorithm to ensure the results of localization and mapping.
28

Intégration des collections topologiques et des transformations dans un langage fonctionnel

Cohen, Julien 16 December 2004 (has links) (PDF)
Ces travaux s'inscrivent dans le projet MGS qui étudie l'apport de notions topologique dans les langages de programmation. Nous étudions et développons les notions de collection topologique (un ensemble de valeurs muni d'une relation de voisinage) et de transformation (une fonction définie par des règles de réécriture utilisant la notion de voisinage). Ces notions apportent un point de vue unifié sur les structures de données, une extension de la définition des fonction par cas et un cadre alternatif à la notion de polytypisme, sans se limiter aux types de données algébriques. Dans cette thèse, nous développons : -un algorithme générique de filtrage ; -un schéma d'évaluation d'ordre supérieur ; -un système de types traitant les collections hétérogènes, les transformations polytypiques et doté d'inférence automatique ; -l'utilisation du typage pour la compilation ; -de nombreux exemples validant la pertinence des choix effectués.
29

Réseaux bayésiens et apprentissage ensembliste pour l'étude différentielle de réseaux de régulation génétique

Nguyen, Hoai-Tuong 27 January 2012 (has links) (PDF)
Dans les dernières années, les réseaux Bayésiens (RB) sont devenus l'une des méthodes d'apprentissage automatique les plus puissantes permettant de modéliser graphiquement et de manière probabiliste différentes types de systèmes complexes. Un des problèmes communs dans l'apprentissage de la structure des RB est le problème des données de petites tailles. En effet, le résultat de l'apprentissage est sensible au nombre d'échantillons de données. En apprentissage automatique, les méthodes d'apprentissage ensemblistes telles que le bootstrap ou les algorithmes génétiques sont des méthodes souvent utilisées pour traiter le problème de la pauvreté de données. Toutefois, les méthodes existantes se limitent généralement à la fusion d'un ensemble de modèles, mais ne permettent pas de comparer deux ensembles de modèles. Inspiré par les résultats obtenus par les méthodes ensemblistes, nous proposons une nouvelle méthode basée sur le graphe quasi-essentiel (QEG - Quasi-Essential Graph) et l'utilisation d'un test multiple afin de comparer deux ensembles de RB. Le QEG permet de résumer et de visualiser graphiquement un ensemble de RB. Le test multiple permet de vérifier si les différences entre les deux ensembles de RB sont statistiquement significatives et de déterminer la position de ces différences. L'application sur des données synthétiques et expérimentales a démontré les différents intérêts de la méthode proposée dans la reconstruction des réseaux de régulation génétique et perspectivement dans les autres applications avec les données de petites tailles.
30

Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation / Set-membership state observers design based on explicit characterizations of theestimation-error bounds

Loukkas, Nassim 06 June 2018 (has links)
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation. / In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error.

Page generated in 0.0409 seconds