Spelling suggestions: "subject:"multicapteurs"" "subject:"multicapteur""
11 |
Système multi-capteurs et traitement des signaux associé pour l'imagerie par courants de Foucault de pièces aéronautiquesThomas, Vincent 26 November 2010 (has links) (PDF)
Le vieillissement du parc aéronautique, mais aussi la volonté de prolonger le cycle de vie des appareils, impose aux techniques de maintenance des exigences de contrôle accrues en termes de fiabilité et de rapidité. Les principaux enjeux étant la détection, et surtout la caractérisation des micro-fissures pouvant apparaitre dans les pièces sensibles des appareils. Cette caractérisation pouvant aller jusqu'à la reconstruction qualitative, voire quantitative du profil des fissures, ce qui suppose la résolution du problème inverse consistant, à partir des signaux mesurés, à remonter à certaines caractéristiques de la pièce inspectée, notamment géométriques, qui en sont en partie la cause.Ce manuscrit présente une approche originale de conception de sonde d'imagerie par courants de Foucault. Cette approche, ici appliquée à l'imagerie de pièces aéronautiques cylindriques, consiste à concevoir la sonde de façon à satisfaire la double contrainte d'une instrumentation performante et d'une résolution possible du problème inverse. Ainsi, la conception de la sonde est-elle faite de manière à ce que d'une part les signaux mesurés, résultant de ses interactions avec la pièce contrôlée, soient d'amplitude la plus élevée possible, et d'autre part, a n que ces interactions soient modélisables au moyen d'un modèle qui se prête bien à l'inversion.Dans un premier temps, une méthodologie de conception de sonde est présentée, qui vise à optimiser le dimensionnement et l'agencement de ses éléments en se fixant des contraintes de sensibilité et de résolution. Un prototype, conçu d'après cette méthodologie, est réalisé, mis en œuvre et caractérisé. Les résultats expérimentaux obtenus, qui s'avèrent en accord avec une modélisation par éléments finis, offrent une validation du fonctionnement de la sonde, celle-ci permettant effectivement de mettre en évidence les défauts types (micro-fissures) recherchés dans la pièce inspectée. Dans un second temps, la configuration des interactions sonde-pièce inspectée, choisie à dessein, est mise à profit pour élaborer un modèle direct. Celui-ci repose sur l'hypothèse selon laquelle, les défauts étant de faibles dimensions, il est possible de considérer que la perturbation de signal qu'ils engendrent est équivalente à celle que génèreraient des sources virtuelles de courants localisées uniquement dans le volume du défaut. Outre sa simplicité, cette modélisation offre l'avantage d'être adaptée à une mise en œuvre au moyen de la méthode des points sources distribués. Or celle-ci permet de formuler le problème direct sous forme matricielle ce qui constitue une base de nature à faciliter la résolution du problème inverse.C'est à ce problème qu'est consacrée la dernière partie du mémoire. Des méthodes d'inversion y sont proposées, visant à traiter progressivement la complexité du problème. Ainsi un algorithme d'inversion mono-fréquence est-il proposé, qui se montre efficace pour reconstruire des défauts sur de faibles profondeurs. Pour une meilleure reconstruction en profondeur, des algorithmes multifréquence faisant appel à des méthodes de régularisation sont ensuite conçus et appliqués à des signaux correspondant à des défauts de géométries diverses.
|
12 |
Une approche de patrouille multi-agents pour la détection d'évènementsTagne-Fute, Elie 05 March 2013 (has links) (PDF)
Pouvoir lutter efficacement contre certains fléaux comme les incendies de forêt, les feux de brousse ou les catastrophes naturelles constitue un enjeu majeur dans plusieurs villes du monde.Avec l'avènement de la technologie de pointe représentée par les réseaux de capteurs, la détection de ces phénomènes devient plus aisée.En effet, des capteurs peuvent être déployés dans des zones difficiles d'accès et s'ils sont suffisamment nombreux pour couvrir la totalité de l'environnement à surveiller, une alerte peut être directement donnée par le capteur ayant détecté un certain type d'évènement (feu, secousse sismique...).Le centre de contrôle ayant reçu l'alerte peut ensuite décider d'intervenir sur la zone en cause.Nos travaux se situent dans ce cadre de la détection de phénomènes par un réseau de capteurs, en supposant que l'environnement est connu et que les capteurs sont mobiles, sans fil et en nombre insuffisant pour couvrir la totalité de l'environnement à surveiller.Parler de surveillance par un nombre faible d'entités mobiles nécessite de parcourir régulièrement certaines zones critiques de l'environnement, ce qui peut s'apparenter à une tâche de patrouille.Dans le cadre de cette thèse, nous nous sommes focalisés sur la détermination de stratégies de patrouille multi-capteurs appliquée à la détection d'évènements.Un problème similaire au nôtre est celui de la patrouille multi-agents dans un environnement connu.Ce problème consiste à faire visiter régulièrement les noeuds d'un graphe (représentant l'environnement) par des agents.Les capteurs peuvent être considérés comme des agents ayant des ressources limitées, en terme d'énergie en particulier.Le cadre de la patrouille multi-agents et les techniques proposées pour le résoudre ne peuvent pas être utilisés ici.Après avoir formulé mathématiquement le problème de la patrouille multi-capteurs appliquée à la détection d'évènements, nous proposons une technique de résolution approchée basée sur des colonies de fourmis.Des simulations ont été réalisées en considérant différents scenarii (topologies d'environnement, populations de capteurs, apparitions des événements) afin d'évaluer la pertinence de notre approche.Les résultats expérimentaux montrent que notre approche permet de déterminer des stratégies de patrouille satisfaisantes dans la majorité des scenarii.
|
13 |
Fusion d'informations multi-capteurs pour la commande du robot humanoïde NAO / Multi-sensor information fusion : application for the humanoid NAO robotNguyen, Thanh Long 05 April 2017 (has links)
Dans cette thèse nous montrons comment améliorer la perception d’un robot humanoïde NAO en utilisant la fusion multi-capteurs. Nous avons proposé deux scénarios: la détection de la couleur et la reconnaissance d’objets colorés. Dans ces deux situations, nous utilisons la caméra du robot et nous ajoutons des caméras externes pour augmenter la fiabilité de la détection car nous nous plaçons dans un contexte expérimental dans lequel l’environnement est non contrôlé. Pour la détection de la couleur, l’utilisateur demande au robot NAO de trouver un objet coloré. La couleur est décrite par des termes linguistiques tels que: rouge, jaune, .... Le principal problème à résoudre est la façon dont le robot reconnaît les couleurs. Pour ce faire, nous avons proposé un système Flou de Sugeno pour déterminer la couleur demandée. Pour simplifier, les cibles choisies sont des balles colorées. Nous avons appliqué la transformation de Hough pour extraire les valeurs moyennes des pixels des balles détectées. Ces valeurs sont utilisées comme entrées pour le système Flou. Les fonctions d'appartenance et les règles d'inférence du système sont construites sur la base de l'évaluation perceptive de l'humain. La sortie du système Flou est une valeur numérique indiquant le nom de la couleur. Une valeur de seuil est introduite pour définir la zone de décision pour chaque couleur. Si la sortie floue tombe dans cet intervalle, alors la couleur est considérée comme la vraie sortie du système. Nous sommes dans un environnement non contrôlé dans lequel il y a des incertitudes et des imprécisions (variation de la lumière, qualité des capteurs, similarité entre couleurs). Ces facteurs affectent la détection de la couleur par le robot. L’introduction du seuil qui encadre la couleur, conduit à un compromis entre l'incertitude et la fiabilité. Si cette valeur est faible, les décisions sont plus fiables, mais le nombre de cas incertains augmente, et vice et versa. Dans nos expérimentations, on a pris une valeur de seuil petite, de sorte que l'incertitude soit plus importante, et donc la prise de décision par un capteur unique, celui de NAO, soit faible. Nous proposons d'ajouter d’autres caméras 2D dans le système afin d’améliorer la prise de décision par le robot NAO. Cette prise de décision résulte de la fusion des sorties des caméras en utilisant la théorie des fonctions de croyance pour lever les ambiguïtés. La valeur de seuil est prise en compte lors de la construction des valeurs de masse à partir de la sortie Floue de Sugeno de chaque caméra. La règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont choisis dans la méthode. Selon nos expériences, le taux de détection du système de fusion est grandement amélioré par rapport au taux de détection de chaque caméra prise individuellement. Nous avons étendu cette méthode à la reconnaissance d’objets colorés en utilisant des caméras hétérogènes 2D et 3D. Pour chaque caméra, nous extrayons vecteurs de caractéristiques (descripteurs SURF et SHOT) des objets, riches en informations caractérisant les modèles d'objets. Sur la base de la correspondance avec des modèles formés et stockés dans la base d'apprentissage, chaque vecteur de caractéristiques de l'objet détecté vote pour une ou plusieurs classes appartenant à l'ensemble de puissance. Nous construisons une fonction de masse après une étape de normalisation. Dans cette expérimentation, la règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont utilisés pour prendre la décision finale. A la suite des trois expérimentations réalisées, le taux de reconnaissance du système de fusion est bien meilleur que le taux de décision issu de chaque caméra individuellement. Nous montrons ainsi que la fusion multi-capteurs permet d’améliorer la prise de décision du robot. / Being interested in the important role of robotics in human life, we do a research about the improvement in reliability of a humanoid robot NAO by using multi-sensor fusion. In this research, we propose two scenarios: the color detection and the object recognition. In these two cases, a camera of the robot is used in combination with external cameras to increase the reliability under non-ideal working conditions. For the color detection, the NAO robot is requested to find an object whose color is described in human terms such as: red, yellow, brown, etc. The main problem to be solved is how the robot recognizes the colors as well as the human perception does. To do that, we propose a Fuzzy Sugeno system to decide the color of a detected target. For simplicity, the chosen targets are colored balls, so that the Hough transformation is employed to extract the average pixel values of the detected ball, then these values are used as the inputs for the Fuzzy system. The membership functions and inference rules of the system are constructed based on perceptual evaluation of human. The output of the Fuzzy system is a numerical value indicating a color name. Additionally, a threshold value is introduced to define the zone of decision for each color. If the Fuzzy output falls into a color interval constructed by the threshold value, that color is considered to be the output of the system. This is considered to be a good solution in an ideal condition, but not in an environment with uncertainties and imprecisions such as light variation, or sensor quality, or even the similarity among colors. These factors really affect the detection of the robot. Moreover, the introduction of the threshold value also leads to a compromise between uncertainty and reliability. If this value is small, the decisions are more reliable, but the number of uncertain cases are increases, and vice versa. However, the threshold value is preferred to be small after an experimental validation, so the need for a solution of uncertainty becomes more important. To do that, we propose adding more 2D cameras into the detection system of the NAO robot. Each camera applies the same method as described above, but their decisions are fused by using the Dempster-Shafer theory in order to improve the detection rate. The threshold value is taken into account to construct mass values from the Sugeno Fuzzy output of each camera. The Dempster-Shafer's rule of combination and the maximum of pignistic probability are chosen in the method. According to our experimens, the detection rate of the fusion system is really better than the result of each individual camera. We extend this recognition process for colored object recognition. These objects are previously learned during the training phase. To challenge uncertainties and imprecisions, the chosen objects look similar in many points: geometrical form, surface, color, etc. In this scenario, the recognition system has two 2D cameras: one of NAO and one is an IP camera, then we add a 3D camera to take the advantages of depth information. For each camera, we extract feature points of the objects (SURF descriptor for 2D data, and the SHOT descriptor for 3D data). To combine the cameras in the recognition system, the Dempster-Shafer theory is again employed for the fusion. Based on the correspondence to trained models stored in the learning base, each feature point of the detected object votes for one or several classes i.e. a hypothesis in the power set. We construct a mass function after a normalization step. In this case, the Dempster-Shafer's rule of combination and the maximum of pignistic probability are employed to make the final decision. After doing three experiments, we conclude that the recognition rate of the fusion system is much better than the rate of each individual camera, from that we confirm the benefits of multi-sensor fusion for the robot's reliability.
|
14 |
Architecture Dynamiquement Auto-adaptable pour Systèmes de Vision Embarquée Multi-capteurs / Self-Adaptive Multi-Sensors Embedded Vision SystemIsavudeen, Ali 19 December 2017 (has links)
Un système de vision embarquée multi-capteurs est doté de plusieurs capteurs d'images de technologie différente.Il peut être un capteur couleur, un capteur infrarouge ou encore un capteur bas niveau de lumière.Les caractéristiques de ces capteurs sont également hétérogènes.Nous avons différentes fréquences trames, résolutions et dynamiques de pixels.Cette multiplicité et cette hétérogénéité des capteurs d'images permet à un système de vision de mieux répondre à ses besoins.En fait, un système de vision multi-capteurs doit fonctionner dans plusieurs milieux opérationnels (urbain, marin, boisé).Il doit également s'adapter à plusieurs conditions de luminosité (jour, nuit, faible éclairage).Enfin, la multiplicité des capteurs permet d'offrir des fonctionnalités intéressantes à l'utilisateur final : fusion multispectrale, vision panoramique, vision multi-champs.Le défi de conception est que l'ensemble de ces paramètres environnementaux et opérationnels peuvent varier dynamiquement au cours de l'utilisation du système de vision.Il est nécessaire que la conception de l'architecture tienne compte de cette variabilité dynamique du contexte d'utilisation.L'architecture doit présenter la flexibilité dynamique suffisante afin de s'adapter aux variations de contexte.Elle doit également pouvoir prendre conscience de l'évolution du contexte.La solution architecturale doit tout de même satisfaire les contraintes de surface et de consommation énergétique d'un système embarqué et portable.Nous proposons dans cette thèse un moniteur permettant à l'architecture actuelle de Safran de s'auto-adapter dynamiquement.Ce moniteur joue deux rôles dans l'auto-adaptation de l'architecture.D'une part, il observe en permanence les changements de contexte.D'autre part, il décide et pilote en conséquence les adaptations à effectuer sur l'architecture.L'observation porte sur l'environnement opérationnel et sur le système de vision multi-capteurs (y compris l'architecture).Le moniteur analyse les données d'observation et prend des décisions sur l'adaptation.Enfin, il commande les différents contrôleurs de l'architecture afin d'exécuter les adaptations requises par le changement de contexte.Nous introduisons un réseau de routeurs qui a pour principal objectif l'acheminement des données de monitoring.Le réseau proposé permet d'accéder à l'architecture sans pour autant compromettre le traitement des flux d'images.Ce réseau s'inspire de nos précédents travaux pour la mise en place d'un système de paquets de données cite{Ng2011}.Un dernier volet de notre proposition porte sur la gestion de la mémoire trames.Avec les changements de contexte permanents, le besoin en ressources de mémoire évolue dynamiquement.Pour une utilisation économique et optimale des ressources, il est nécessaire d'adapter l'attribution des ressources au fil des variations des besoins.Nous présentons un contrôleur mémoire permettant l'allocation dynamique de l'espace mémoire et la régulation dynamique de la distribution de la bande passante mémoire.Nous évaluons les différents volets de notre proposition à l'aide d'une implémentation sur un FPGA Cyclone V de chez ALTERA (5CGX).Nous présentons les validations progressivement au fur et à mesure que nous abordons chaque volet de notre proposition.Chaque validation présente les performances en temps et en surface / An embedded multi-sensor vision system involves several types of image sensors such as colour, infrared or low-light sensor.Characteristics of the sensors are often various (different resolution, frame rate and pixel depth).Hence, the vision system has to deal with several heterogeneous image streams.That multiplicity and the heterogeneity of the sensors help to face various environmental contexts.We consider a multi-sensor vision system that has to work in different area (city, sea, forest) and handle several operations (multispectral fusion, panoramic, multifocus).The vision system has to also face various luminosity conditions : day, night or low-light condition.The challenge of designing architecture for such a vision system is that the working context can dynamically vary.The designer has to take in account this dynamic variation of the working context.The architecture should be enough flexible to adapt its processing to the requirements of the context.It also has to be able to detect any variation of the context and adapt itself according to the context.Above all, the design should satisfy area and power constraints of an embedded and portable system.In this thesis, we propose an embedded monitor enabling dynamic auto-adaptation of the current multi-stream architecture of Safran.The monitor accomplishes two tasks for the auto-adaptation of the architecture.First, he continuously observes changes of both external and internal contexts.Then, he decides the adaptation that the architecture needs in response to the context variation.Observation of the external context is about the type of the area and the luminosity conditions.While, observation of the internal context focuses on the current status of the vision system and its architecture.To perform the adaptation, the monitor sends adaptation commands toward controllers of the architecture.We introduce a Network-on-Chip (NoC) based interconnexion layer to fulfill monitoring communication.This NoC is inspired from our previous work cite{Ng2011}.This layer allows observing and commanding the processing stages without compromising the existing pixels streams.Routers of the NoC are responsible for routing observation data from processing stages to the monitor and adaptation commands from the monitor toward processing stages.The proposed NoC takes in account the heterogeneity of working frequencies.Finally, we present a memory controller that enables dynamic allocation of the frame memory.When the working context changes, memory resources requirements change too.For an optimised and economical resources utilisation, we propose to dynamically adapt the frame buffer allocation.Also, the proposed has the possibility to dynamically manage the bandwidth of the frame memory.We introduce a pondered round robin-based method with the ability to adapt the weights on-the-fly.Our proposition has been evaluated with a typical Safran multi-stream architecture.It has been implemented in a FPGA target.Area performances have been evaluated through synthesis for a ALTERA Cyclone V FPGA (5CGX).Latency performances have been evaluated thanks to ModelSim simulations
|
15 |
Approche crédibiliste pour la fusion multi capteurs décentralisée / Credibilist and decentralized approach for fusion in a multi sensors systemAndré, Cyrille 10 December 2013 (has links)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants. / Data fusion combines several observations in order to produce a more accurate and complete description of the studied phenomenon. In this scope, the multi sensors detection system is a key element. In this work, we aim at merging information pieces from various sensors in order to count the objects or targets in the scene, localize and track the moving targets. In addition, when several targets are simultaneously present, we aim at managing multiple targets. In term of theoretic framework, the problem was addressed in the specific context of the belief functions theory. This choice implies the development of a credibilistic representation of the localization uncertainties such that each detection is modeled by a basic belief assignment (BBA) defined on a discrete paving of the scene. This model, which is the first contribution, allows us to represent the uncertainties about target location, respecting their specific geometric forms of imprecision, e.g. corresponding either to omnidirectional sensors or to directional sensors. As a second contribution, we propose to define a specific BBA, to represent and take into account some a priori knowledge such as topographic information pieces: obstacles partially occulting the vision or roads on which the target presence is more plausible. These BBAs are then merged with the detections to improve the localization. Based on the available belief model on target location, we also proposed (third contribution) a method for data association between tracks and detections. The new function to maximize is derived from the joint pignistic probability of associations. This criterion allows us to perform all processing in the same frame of discernment. Belief function theory main drawback for our application derives from the size of the frame of discernment. To address this issue, we have defined an adaptive discernment frame using conditioning and coarsening operators. Moreover, since the number of focal elements can also dramatically increase due to the iterative nature of our application, the BBAs should be regularly simplified. To address this issue, we have proposed a new method based on the canonical decomposition. Finally, the developed fusion system was implemented in a decentralized architecture. Each node cooperates with its neighbors to produce a coherent set of targets. Validation was the last but not least part of our work. Firstly, simulations were used to evaluate the proposed solutions versus the already existing methods. Secondly, the fusion process was tested in real-life scenarios by implementing a module in the SmartMesh surveillance system. These experiments were necessary both to quantify the errors for each sensor and to integrate difficulties related to interfaces with other components.
|
16 |
Localisation d'un robot humanoïde en milieu intérieur non-contraint / Localization of a humanoid robot in a non-constrained indoor environmentNowakowski, Mathieu 03 April 2019 (has links)
Après la démocratisation des robots industriels, la tendance actuelle est au développement de robots sociaux dont la fonction principale est l'interaction avec ses utilisateurs. Le déploiement de telles plate-formes dans des boutiques, des musées ou des gares relance différentes problématiques dont celle de la localisation pour les robots mobiles. Cette thèse traite ainsi de la localisation du robot Pepper en milieu intérieur non-contraint. Présent dans de nombreuses boutiques au Japon, Pepper est utilisé par des personnes non-expertes et doit donc être le plus autonome possible. Cependant, les solutions de localisation autonome de la littérature souffrent des limitations de la plate-forme. Les travaux de cette thèse s'articulent autour de deux grands axes. D'abord, le problème de la relocalisation dans un environnement visuellement redondant est étudié. La solution proposée consiste à combiner la vision et le Wi-Fi dans une approche probabiliste basée sur l'apparence. Ensuite, la question de la création d'une carte métrique cohérente est approfondie. Pour compenser les nombreuses pertes de suivi d'amers visuels causées par une fréquence d'acquisition basse, des contraintes odométriques sont ajoutées à une optimisation par ajustement de faisceaux. Ces solutions ont été testées et validées sur plusieurs robots Pepper à partir de données collectées dans différents environnements intérieurs sur plus de 7 km. / After the democratization of industrial robots, the current trend is the development of social robots that create strong interactions with their users. The deployment of such platforms in shops, museums or train stations raises various issues including the autonomous localization of mobile robots. This thesis focuses on the localization of Pepper robots in a non-constrained indoor environment. Pepper robots are daily used in many shops in Japan and must be as autonomous as possible. However, localization solutions in the literature suffer from the limitations of the platform. This thesis is split into two main themes. First, the problem of relocalization in a visually redundant environment is studied. The proposed solution combines vision and Wi-Fi in a probabilistic approach based on the appearance. Then, the question of a consistent metrical mapping is examined. In order to compensate the numerous losses of tracking caused by the low acquisition frequency, odometric constraints are added to a bundle adjustment optimization. These solutions have been tested and validated on several Pepper robots, from data collected in different indoor environments over more than 7 km.
|
17 |
Une approche de patrouille multi-agents pour la détection d'évènements / An multi-agent patrolling approach for the events detectionTagne-Fute, Elie 05 March 2013 (has links)
Pouvoir lutter efficacement contre certains fléaux comme les incendies de forêt, les feux de brousse ou les catastrophes naturelles constitue un enjeu majeur dans plusieurs villes du monde.Avec l'avènement de la technologie de pointe représentée par les réseaux de capteurs, la détection de ces phénomènes devient plus aisée.En effet, des capteurs peuvent être déployés dans des zones difficiles d'accès et s'ils sont suffisamment nombreux pour couvrir la totalité de l'environnement à surveiller, une alerte peut être directement donnée par le capteur ayant détecté un certain type d'évènement (feu, secousse sismique...).Le centre de contrôle ayant reçu l'alerte peut ensuite décider d'intervenir sur la zone en cause.Nos travaux se situent dans ce cadre de la détection de phénomènes par un réseau de capteurs, en supposant que l'environnement est connu et que les capteurs sont mobiles, sans fil et en nombre insuffisant pour couvrir la totalité de l'environnement à surveiller.Parler de surveillance par un nombre faible d'entités mobiles nécessite de parcourir régulièrement certaines zones critiques de l'environnement, ce qui peut s'apparenter à une tâche de patrouille.Dans le cadre de cette thèse, nous nous sommes focalisés sur la détermination de stratégies de patrouille multi-capteurs appliquée à la détection d'évènements.Un problème similaire au nôtre est celui de la patrouille multi-agents dans un environnement connu.Ce problème consiste à faire visiter régulièrement les noeuds d'un graphe (représentant l'environnement) par des agents.Les capteurs peuvent être considérés comme des agents ayant des ressources limitées, en terme d'énergie en particulier.Le cadre de la patrouille multi-agents et les techniques proposées pour le résoudre ne peuvent pas être utilisés ici.Après avoir formulé mathématiquement le problème de la patrouille multi-capteurs appliquée à la détection d'évènements, nous proposons une technique de résolution approchée basée sur des colonies de fourmis.Des simulations ont été réalisées en considérant différents scenarii (topologies d'environnement, populations de capteurs, apparitions des événements) afin d'évaluer la pertinence de notre approche.Les résultats expérimentaux montrent que notre approche permet de déterminer des stratégies de patrouille satisfaisantes dans la majorité des scenarii. / To fight effectively against scourges like forest fires , brush fires or natural disasters is a major issue in many cities worldwide.With the advent of technology represented by sensor networks , detection of these phenomena becomes easier .Indeed , sensors can be deployed in remote areas and they are enough to cover the entire environment to monitor, an alert can be given directly by the sensor has detected a certain type of event (fire, earthquake ... ) .The control center has received the alert may then decide to intervene in the area in question .Our work takes place in the context of the detection of phenomena by a sensor network , assuming that the environment is known and that the sensors are mobile, wireless and insufficient to cover the entire environment to be monitored.Speaking of monitoring a small number of mobile entities requires regularly browse some critical environmental areas, which can be likened to a patrol task .In this thesis , we focused on identifying strategies patrol multi-sensor applied to the detection of events.A similar problem to ours is the multi-agent patrolling in a known environment .This problem is to regularly visit the nodes of a graph (representing the environment) by agents.The sensors can be considered as agents with limited resources , in terms of energy in particular.The framework of multi- agents and techniques proposed to solve patrol can not be used here .After mathematically formulated the problem of multi-sensor patrol applied to the detection of events, we propose an approximate solution technique based on ant colonies .Simulations were made considering different scenarios ( environmental topologies populations sensors appearances events ) to assess the relevance of our approach.The experimental results show that our approach identifies strategies patrol satisfactory in the majority of scenarios.
|
18 |
Système embarqué de capture et analyse du mouvement humain durant la marcheZong, Cong 20 December 2012 (has links) (PDF)
Ces travaux de thèse sont consacrés à la définition et la mise en œuvre de systèmes multi-capteurs et d'algorithmes, embarqués sur un déambulateur et dédiés à la capture et l'estimation de la posture et du mouvement de son utilisateur durant la locomotion. Plusieurs expérimentations ont été menées afin d'évaluer quantitativement la qualité de la posture reconstruite obtenue. Un détecteur d'anomalies durant la marche a de plus été proposé afin d'évaluer le système, en termes d'application. Dans ce mémoire, les paramètres du mouvement humain relatifs à la marche (pas, posture, équilibre) généralement utilisés pour l'analyse de la marche, sont d'abord introduits. Pour l'observation de tels paramètres, les médecins utilisent différents dispositifs. La plupart sont encombrants, ce qui limite leur usage au milieu hospitalier. Les systèmes multi-capteurs embarqués sur un déambulateur proposés permettraient d'obtenir des données quotidiennement, sur des distances de locomotion et des durées plus importantes. Deux architectures ont été développées successivement : la première est composée d'une caméra 3D et de deux capteurs infrarouges ; la seconde est composée de deux capteurs Kinect. Ces architectures sont utilisées pour estimer la posture du sujet et son activité locomotrice par recalage sur un modèle physique de mannequin virtuel 3D. La précision de la posture obtenue est améliorée en intégrant un module de prédiction du mouvement: il utilise une estimation de certains paramètres discrets de la marche (durée et longueur des pas) et un modèle de la marche assistée. Enfin, le développement d'un algorithme de détection de ruptures du rythme locomoteur nous permet de valider l'ensemble de l'approche par rapport à l'application finale : l'assistance au diagnostic. A partir d'un ensemble de mesures de distance, correspondant au rapport de vraisemblance généralisé calculé sur les positions relatives de chaque articulation et la vitesse du déambulateur déterminée par un odomètre, un modèle multi-dimensionnel d'une marche régulière est ensuite appris via un séparateur à vaste marge à une classe. Cet algorithme a été évalué sur la base d'un protocole de changement de rythme de marche. Dans l'avenir, ce système pourra être intégré au robot d'assistance à la déambulation conçu dans le cadre du projet ANR MIRAS (Multimodal Interactive Robot of Assistance in Strolling)
|
19 |
Study of Future On-board GNSS/INS Hybridization Architectures / Etude de Futures Architectures d'Hybridation GNSS/IRS EmbarquéesVezinet, Jérémy 18 December 2014 (has links)
Un développement rapide et une densification du trafic aérien ont conduit à l'introduction de nouvelles opérations d'approches et d'atterrissage utilisant des trajectoires plus flexibles et des minimas plus exigeants. La plupart des opérations de navigation aérienne sont actuellement réalisées grâce au GNSS, augmenté par les systèmes GBAS, SBAS et ABAS qui permettent d'atteindre des opérations d'approches de précision (pour GBAS et SBAS). Cependant ces systèmes nécessitent la mise en place d'un réseau de station de référence relativement couteux et des diffusions constantes de messages aux utilisateurs de l'espace aérien. Afin de surmonter ces contraintes, le système ABAS intègre à bord des informations fournies par les systèmes de navigation inertielle (INS) ainsi améliorant les performances de navigation. Dans cette logique, les avions commerciaux actuels utilisent une solution de couplage des deux systèmes appelée hybridation GPS/baro-INS. Cette solution permet d'atteindre des niveaux de performance en termes de précision, intégrité, disponibilité et continuité supérieurs aux deux systèmes pris séparément. Malheureusement, les niveaux d'exigences requis par les opérations de précision ou les atterrissages automatiques ne peuvent pas encore être totalement couverts par les solutions d'hybridation actuelles. L'idée principale de cette thèse a été d'étendre le processus d'hybridation en incluant d'autres capteurs ou systèmes actuellement disponibles ou non à bord et d'évaluer les niveaux de performance atteints par cette solution de filtre d'hybridation global. L'objectif ciblé est de pouvoir fournir la plupart des paramètres de navigations pour les opérations les plus critiques avec le niveau de performance requis par les exigences OACI. Les opérations ciblées pendant l'étude étaient les approches de précision (en particulier les approches CAT III) et le roulage sur la piste. L'étude des systèmes vidéo a fait l'objet d'une attention particulière pendant la thèse. La navigation basée sur la vidéo est une solution autonome de navigation de plus en plus utilisée de nos jours axée sur des capteurs qui mesurent le mouvement du véhicule et observent l'environnement. Que cela soit pour compenser la perte ou la dégradation d'un des systèmes de navigation ou pour améliorer la solution existante, les intérêts de l'utilisation de la vidéo sont nombreux. / The quick development of air traffic has led to the improvement of approach and landing operations by using flexible flight paths and by decreasing the minima required to perform these operations. Most of the aircraft operations are supported by the GNSS augmented with GBAS, SBAS and ABAS. SBAS or GBAS allow supporting navigation operations down to precision approaches. However, these augmentations do require an expensive network of reference receivers and real-time broadcast to the airborne user. To overcome, the ABAS system integrates on-board information provided by an INS so as to enhance the performance of the navigation system. In that scheme, INS is coupled with a GPS receiver in a GPS/baro-INS hybridization solution that is already performed on current commercial aircraft. This solution allows reaching better performance in terms of accuracy, integrity, availability and continuity than the two separated solutions. However the most stringent requirements for precision approaches or automatic landings cannot be fulfilled with the current hybridization. The main idea of this PhD study is then to extend the hybridization process by including other sensors already available on commercial aircraft or not and, to assess the performance reached by a global hybridization architecture. It aims at providing most of the navigation parameters in all operations with the required level of performance. The operations targeted by this hybridization are precision approaches, with a particular focus on CAT III precision approach and roll out on the runway. The study of video sensor has been particularly focused on in the thesis. Indeed video based navigation is a complete autonomous navigation opportunity only based on sensors that provide information from the dynamic of the vehicle and from the observation of the scenery. Moreover, from a possible compensation of any loss or degradation of a navigation system to the improvement of the navigation solution during the most critical operations, the interests of video are numerous.
|
20 |
Filtres de Kalman étendus reposant sur une variable d'erreur non linéaire avec applications à la navigation / Non-linear state error based extended Kalman filters with applications to navigationBarrau, Axel 15 September 2015 (has links)
Cette thèse étudie l'utilisation de variables d'erreurs non linéaires dans la conception de filtres de Kalman étendus (EKF). La théorie des observateurs invariants sur les groupes de Lie sert de point de départ au développement d'un cadre plus général mais aussi plus simple, fournissant des variables d'erreur non linéaires assurant la propriété nouvelle et surprenante de suivre une équation différentielle (partiellement) linéaire. Ce résultat est mis à profit pour prouver, sous des hypothèses naturelles d'observabilité, la stabilité de l'EKF invariant (IEKF) une fois adapapté à la classe de systèmes (non-invariants) introduite. Le gain de performance remarquable par rapport à l'EKF classique est illustré par des applications à des problèmes industriels réels, réalisées en partenariat avec l'entreprise SAGEM.Dans une seconde approche, les variables d'erreurs sont étudiées en tant que processus stochastiques. Pour les observateurs convergeant globalement si les bruits sont ignorés, on montre que les ajouter conduit la variable d'erreur à converger en loi vers une distribution limite indépendante de l'initialisation. Ceci permet de choisir des gains à l'avance en optimisant la densité asymptotique. La dernière approche adoptée consiste à prendre un peu de recul vis-à-vis des groupes de Lie, et à étudier les EKF utilisant des variables d'erreur non linéaires de façon générale. Des propriété globales nouvelles sont obtenues. En particulier, on montre que ces méthodes permettent de résoudre le célèbre problème de fausse observabilité créé par l'EKF s'il est appliqué aux questions de localisation et cartographie simultanées (SLAM). / The present thesis explores the use of non-linear state errors to devise extended Kalman filters (EKFs). First we depart from the theory of invariant observers on Lie groups and propose a more general yet simpler framework allowing to obtain non-linear error variables having the novel unexpected property of being governed by a (partially) linear differential equation. This result is leveraged to ensure local stability of the invariant EKF (IEKF) under standard observability assumptions, when extended to this class of (non-invariant) systems. Real applications to some industrial problems in partnership with the company SAGEM illustrate the remarkable performance gap over the conventional EKF. A second route we investigate is to turn the noise on and consider the invariant errors as stochastic processes. Convergence in law of the error to a fixed probability distribution, independent of the initialization, is obtained if the error with noise turned off is globally convergent, which in turn allows to assess gains in advance that minimize the error's asymptotic dispersion. The last route consists in stepping back a little and exploring general EKFs (beyond the Lie group case) relying on a non-linear state error. Novel mathematical (global) properties are derived. In particular, these methods are shown to remedy the famous problem of false observability created by the EKF if applied to simultaneous localization and mapping (SLAM), which is a novel result.
|
Page generated in 0.0584 seconds