• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 1
  • 1
  • Tagged with
  • 10
  • 10
  • 9
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une approche globale pour la métrologie 3D automatique multi-systèmes / A global approach for automatic 3D part inspection

Audfray, Nicolas 17 December 2012 (has links)
La métrologie 3D permet la vérification de spécifications géométriques et dimensionnelles sur des pièces mécaniques. Ce contrôle est classiquement réalisé à partir de mesures avec des capteurs à contact montés sur des machines à mesurer tridimensionnelles. Ce type de mesures offre une très grande qualité de données acquises mais requiert un temps d'exécution relativement long. Les présents travaux s'attachent donc à développer les mesures optiques dans le cadre de la métrologie 3D qui, avec une qualité diminuée, permettent une exécution beaucoup plus rapide. L'absence de norme concernant ces systèmes de mesure a pour conséquence leur utilisation rare dans le cadre de la métrologie. En effet, le choix d'un système est généralement réalisé à partir de spécifications sur sa qualité. Nous proposons donc une méthode de qualification des systèmes de mesure optiques permettant de quantifier la qualité des données qu'ils fournissent. Les données ainsi qualifiées sont stockées dans une base de données. Un processus global d'inspection 3D multi-systèmes est mis en place, permettant le choix du système de numérisation le mieux adapté (à contact ou sans contact) en termes de qualité et de coût de numérisation, à partir des données qualifiées de la base de données. Lors de l'utilisation de systèmes de mesure optiques, la baisse de qualité est essentiellement due au bruit de numérisation inhérent à ce type de systèmes. Un filtre permettant d'éliminer ce bruit, tout en gardant le défaut de forme de la surface, est mis en place dans le processus afin de rendre possible la vérification de spécifications avec des intervalles de tolérance faibles à l'aide de systèmes de mesure optiques. / 3D metrology allows GD\&{}T verification on mechanical parts. This verification is usually calculated using data obtained with a touch probe mounted on a coordinate measuring machine. Such a measurement offers a high data quality but requires an expensive processing time. The proposed research aims at expanding optical measurements in 3D metrology, reducing execution time but with a lower data quality. The lack of standard in this field makes the use of optical sensors uncommon in 3D metrology. Indeed, the system selection is mostly carried out from its quality specifications. Therefore we propose a protocol to assess the quality of optical measuring systems that allows in particular quantification of acquired data quality. The results of measuring system qualification are stored in a database. Taking advantages of this database, a global multi-system 3D inspection process is set up allowing the selection of the best digitizing system (contact or contactless) in terms of quality and digitizing cost. When using optical sensors, the poor quality is mostly due to digitizing noise inherent to this kind of systems. A filter that removes noise, keeping the form deviation of the surface, is proposed in the process to make possible the specification verification for applications with small tolerance intervals using optical systems.
2

Débruitage multicapteur appliqué à la téléphonie mains-libres en automobile / Multisensor noise reduction with application to in-car hands-free telephony

Fox, Charles 05 December 2013 (has links)
Les kits pour téléphonie mains-libres en voiture sont un équipement qui devient de plus en plus standard dans les véhicules actuels. Ces accessoires répondent à un besoin de communiquer tout en conduisant, pour des raisons professionnelles ou personnelles. Or, la voiture s’avère un environnement acoustique particulièrement difficile. En effet, un habitacle de voiture présente une forte réverbération, du fait de la présence de nombreuses surfaces vitrées, et il est aussi très bruyant. Ce bruit vient de multiples sources, comme le moteur, le roulement du pneu sur la route, le vent, la circulation environnante... et ces sources varient fortement d’une condition de conduite à l’autre. La réduction de bruit ambiant au niveau de la prise de son dans l’habitacle constitue donc un élément majeur dans le confort des utilisateurs de ce type d’équipement. L’objectif des travaux effectués dans le cadre de cette thèse est de fournir une solution efficace de réduction de bruit pour cette application, en utilisant plusieurs microphones. Nous nous intéressons ici principalement à la situation d’autoroute. Une grande campagne de mesures dans un véritable habitacle automobile en roulant a permis d’observer des caractéristiques spatiales et spectrales du champ de bruit ambiant présent dans cette situation. Ces mesures nous ont permis de mettre en évidence de fortes différences en termes de Rapport Signal à Bruit d’entrée (RSB) et de cohérence spatiale du bruit capté selon la fréquence considérée. Ces observations nous amènent à concevoir des systèmes hybrides : nous cherchons à appliquer des traitements différents en basses et hautes fréquences. Nous avons développé une implémentation adaptative du beamforming Minimum Variance Distortionless Response, qui est efficace dans des conditions de fort RSB d’entrée, et quand la cohérence inter-capteur du bruit est faible. Nous avons également étudié le placement des capteurs pour cette approche de façon à maximiser ses performances, qui seront bonnes en hautes fréquences. Pour les basses fréquences, nous avons étudié deux systèmes :- L’un est basé sur de l’Annulation de Bruit Adaptative, exploitant un bruit fortement cohérent d’un capteur sur l’autre - L’autre est un dérivé du Filtre de Wiener Multicanal . A chaque fois, une étude des performances en fonction de l’antenne de capteurs utilisée a été menée, pour utiliser la stratégie acoustique la plus appropriée. Les systèmes hybrides ainsi conçus ont été évalués de façon subjective, en faisant passer un test d’écoute à un panel d’individus. Ce test montre que le système hybride utilisant le filtrage de Wiener permet de réduire de façon significative la gêne liée au bruit ambiant, sans montrer de contrepartie sur la qualité de la parole transmise. / Hands-free car kits have gained a lot of popularity among drivers over the last years. These equipments fill the need for the users to communicate while driving their car, whether it is for professional or personal use. Having a phone conversation in a car is really challenging, as the inside of an automobile is a strongly adverse acoustic environment. Indeed, this compartment is strongly reverberant, because of the presence of important glass surface (such as the windbreaker and windows), and it is also very noisy. The noise comes from various sources, such as the engine, the contact of the tire on the road, the wind..., and those sources show different characteristics from one situation to another. Hence, the noise reduction for in-car voice pickup is a major element for the user’s comfort. The main objective of the work reported in this thesis is to build an efficient noise reduction solution for in-car telephony, using a plurality of microphones. We are in this work mostly interested in the freeway situation. Hence, a database of measurements has been recorded in a real car interior, to understand what are the spectral and spatial characteristics of the noise field in this situation. These measurements showed that the noise field has different characteristics in high and low frequencies. Indeed, the noise has more energy, and is more spatially coherent in the low frequency range. This leads us to propose hybrid subband systems, in order to use different algorithmic approaches in high and low frequencies. We made an adaptive implementation of the well-known Minimum Variance Distortionless Response beamforming, which is efficient when the input Signal-to-Noise Ratio is high, and the noise field shows a low spatial coherence. We also conducted an analysis on the impact of sensors’ positions, in order to build a microphone array which will allow this method to be efficient in the high frequency range. We also considered two different processings for the low frequency range : — one is based on Adaptive Noise Cancellation, which uses the high spatial coherence of recorded noises, — the other is based on Multichannel Wiener Filter. For both methods, an analysis of the impact of sensors’ positions has been made, in order to build an efficient microphone array. To assess the performance of these hybrid systems, a subjective evaluation has been conducted, through a listening test. This evaluation shows that the hybrid system using a Multichannel Wiener Filter in the low frequency range supresses a significant amount of noise, while keeping the voice distortion to a minimum, perceptually unnoticed.
3

Fusion d'informations multi-capteurs pour la commande du robot humanoïde NAO / Multi-sensor information fusion : application for the humanoid NAO robot

Nguyen, Thanh Long 05 April 2017 (has links)
Dans cette thèse nous montrons comment améliorer la perception d’un robot humanoïde NAO en utilisant la fusion multi-capteurs. Nous avons proposé deux scénarios: la détection de la couleur et la reconnaissance d’objets colorés. Dans ces deux situations, nous utilisons la caméra du robot et nous ajoutons des caméras externes pour augmenter la fiabilité de la détection car nous nous plaçons dans un contexte expérimental dans lequel l’environnement est non contrôlé. Pour la détection de la couleur, l’utilisateur demande au robot NAO de trouver un objet coloré. La couleur est décrite par des termes linguistiques tels que: rouge, jaune, .... Le principal problème à résoudre est la façon dont le robot reconnaît les couleurs. Pour ce faire, nous avons proposé un système Flou de Sugeno pour déterminer la couleur demandée. Pour simplifier, les cibles choisies sont des balles colorées. Nous avons appliqué la transformation de Hough pour extraire les valeurs moyennes des pixels des balles détectées. Ces valeurs sont utilisées comme entrées pour le système Flou. Les fonctions d'appartenance et les règles d'inférence du système sont construites sur la base de l'évaluation perceptive de l'humain. La sortie du système Flou est une valeur numérique indiquant le nom de la couleur. Une valeur de seuil est introduite pour définir la zone de décision pour chaque couleur. Si la sortie floue tombe dans cet intervalle, alors la couleur est considérée comme la vraie sortie du système. Nous sommes dans un environnement non contrôlé dans lequel il y a des incertitudes et des imprécisions (variation de la lumière, qualité des capteurs, similarité entre couleurs). Ces facteurs affectent la détection de la couleur par le robot. L’introduction du seuil qui encadre la couleur, conduit à un compromis entre l'incertitude et la fiabilité. Si cette valeur est faible, les décisions sont plus fiables, mais le nombre de cas incertains augmente, et vice et versa. Dans nos expérimentations, on a pris une valeur de seuil petite, de sorte que l'incertitude soit plus importante, et donc la prise de décision par un capteur unique, celui de NAO, soit faible. Nous proposons d'ajouter d’autres caméras 2D dans le système afin d’améliorer la prise de décision par le robot NAO. Cette prise de décision résulte de la fusion des sorties des caméras en utilisant la théorie des fonctions de croyance pour lever les ambiguïtés. La valeur de seuil est prise en compte lors de la construction des valeurs de masse à partir de la sortie Floue de Sugeno de chaque caméra. La règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont choisis dans la méthode. Selon nos expériences, le taux de détection du système de fusion est grandement amélioré par rapport au taux de détection de chaque caméra prise individuellement. Nous avons étendu cette méthode à la reconnaissance d’objets colorés en utilisant des caméras hétérogènes 2D et 3D. Pour chaque caméra, nous extrayons vecteurs de caractéristiques (descripteurs SURF et SHOT) des objets, riches en informations caractérisant les modèles d'objets. Sur la base de la correspondance avec des modèles formés et stockés dans la base d'apprentissage, chaque vecteur de caractéristiques de l'objet détecté vote pour une ou plusieurs classes appartenant à l'ensemble de puissance. Nous construisons une fonction de masse après une étape de normalisation. Dans cette expérimentation, la règle de combinaison de Dempster-Shafer et le maximum de probabilité pignistique sont utilisés pour prendre la décision finale. A la suite des trois expérimentations réalisées, le taux de reconnaissance du système de fusion est bien meilleur que le taux de décision issu de chaque caméra individuellement. Nous montrons ainsi que la fusion multi-capteurs permet d’améliorer la prise de décision du robot. / Being interested in the important role of robotics in human life, we do a research about the improvement in reliability of a humanoid robot NAO by using multi-sensor fusion. In this research, we propose two scenarios: the color detection and the object recognition. In these two cases, a camera of the robot is used in combination with external cameras to increase the reliability under non-ideal working conditions. For the color detection, the NAO robot is requested to find an object whose color is described in human terms such as: red, yellow, brown, etc. The main problem to be solved is how the robot recognizes the colors as well as the human perception does. To do that, we propose a Fuzzy Sugeno system to decide the color of a detected target. For simplicity, the chosen targets are colored balls, so that the Hough transformation is employed to extract the average pixel values of the detected ball, then these values are used as the inputs for the Fuzzy system. The membership functions and inference rules of the system are constructed based on perceptual evaluation of human. The output of the Fuzzy system is a numerical value indicating a color name. Additionally, a threshold value is introduced to define the zone of decision for each color. If the Fuzzy output falls into a color interval constructed by the threshold value, that color is considered to be the output of the system. This is considered to be a good solution in an ideal condition, but not in an environment with uncertainties and imprecisions such as light variation, or sensor quality, or even the similarity among colors. These factors really affect the detection of the robot. Moreover, the introduction of the threshold value also leads to a compromise between uncertainty and reliability. If this value is small, the decisions are more reliable, but the number of uncertain cases are increases, and vice versa. However, the threshold value is preferred to be small after an experimental validation, so the need for a solution of uncertainty becomes more important. To do that, we propose adding more 2D cameras into the detection system of the NAO robot. Each camera applies the same method as described above, but their decisions are fused by using the Dempster-Shafer theory in order to improve the detection rate. The threshold value is taken into account to construct mass values from the Sugeno Fuzzy output of each camera. The Dempster-Shafer's rule of combination and the maximum of pignistic probability are chosen in the method. According to our experimens, the detection rate of the fusion system is really better than the result of each individual camera. We extend this recognition process for colored object recognition. These objects are previously learned during the training phase. To challenge uncertainties and imprecisions, the chosen objects look similar in many points: geometrical form, surface, color, etc. In this scenario, the recognition system has two 2D cameras: one of NAO and one is an IP camera, then we add a 3D camera to take the advantages of depth information. For each camera, we extract feature points of the objects (SURF descriptor for 2D data, and the SHOT descriptor for 3D data). To combine the cameras in the recognition system, the Dempster-Shafer theory is again employed for the fusion. Based on the correspondence to trained models stored in the learning base, each feature point of the detected object votes for one or several classes i.e. a hypothesis in the power set. We construct a mass function after a normalization step. In this case, the Dempster-Shafer's rule of combination and the maximum of pignistic probability are employed to make the final decision. After doing three experiments, we conclude that the recognition rate of the fusion system is much better than the rate of each individual camera, from that we confirm the benefits of multi-sensor fusion for the robot's reliability.
4

Architecture Dynamiquement Auto-adaptable pour Systèmes de Vision Embarquée Multi-capteurs / Self-Adaptive Multi-Sensors Embedded Vision System

Isavudeen, Ali 19 December 2017 (has links)
Un système de vision embarquée multi-capteurs est doté de plusieurs capteurs d'images de technologie différente.Il peut être un capteur couleur, un capteur infrarouge ou encore un capteur bas niveau de lumière.Les caractéristiques de ces capteurs sont également hétérogènes.Nous avons différentes fréquences trames, résolutions et dynamiques de pixels.Cette multiplicité et cette hétérogénéité des capteurs d'images permet à un système de vision de mieux répondre à ses besoins.En fait, un système de vision multi-capteurs doit fonctionner dans plusieurs milieux opérationnels (urbain, marin, boisé).Il doit également s'adapter à plusieurs conditions de luminosité (jour, nuit, faible éclairage).Enfin, la multiplicité des capteurs permet d'offrir des fonctionnalités intéressantes à l'utilisateur final : fusion multispectrale, vision panoramique, vision multi-champs.Le défi de conception est que l'ensemble de ces paramètres environnementaux et opérationnels peuvent varier dynamiquement au cours de l'utilisation du système de vision.Il est nécessaire que la conception de l'architecture tienne compte de cette variabilité dynamique du contexte d'utilisation.L'architecture doit présenter la flexibilité dynamique suffisante afin de s'adapter aux variations de contexte.Elle doit également pouvoir prendre conscience de l'évolution du contexte.La solution architecturale doit tout de même satisfaire les contraintes de surface et de consommation énergétique d'un système embarqué et portable.Nous proposons dans cette thèse un moniteur permettant à l'architecture actuelle de Safran de s'auto-adapter dynamiquement.Ce moniteur joue deux rôles dans l'auto-adaptation de l'architecture.D'une part, il observe en permanence les changements de contexte.D'autre part, il décide et pilote en conséquence les adaptations à effectuer sur l'architecture.L'observation porte sur l'environnement opérationnel et sur le système de vision multi-capteurs (y compris l'architecture).Le moniteur analyse les données d'observation et prend des décisions sur l'adaptation.Enfin, il commande les différents contrôleurs de l'architecture afin d'exécuter les adaptations requises par le changement de contexte.Nous introduisons un réseau de routeurs qui a pour principal objectif l'acheminement des données de monitoring.Le réseau proposé permet d'accéder à l'architecture sans pour autant compromettre le traitement des flux d'images.Ce réseau s'inspire de nos précédents travaux pour la mise en place d'un système de paquets de données cite{Ng2011}.Un dernier volet de notre proposition porte sur la gestion de la mémoire trames.Avec les changements de contexte permanents, le besoin en ressources de mémoire évolue dynamiquement.Pour une utilisation économique et optimale des ressources, il est nécessaire d'adapter l'attribution des ressources au fil des variations des besoins.Nous présentons un contrôleur mémoire permettant l'allocation dynamique de l'espace mémoire et la régulation dynamique de la distribution de la bande passante mémoire.Nous évaluons les différents volets de notre proposition à l'aide d'une implémentation sur un FPGA Cyclone V de chez ALTERA (5CGX).Nous présentons les validations progressivement au fur et à mesure que nous abordons chaque volet de notre proposition.Chaque validation présente les performances en temps et en surface / An embedded multi-sensor vision system involves several types of image sensors such as colour, infrared or low-light sensor.Characteristics of the sensors are often various (different resolution, frame rate and pixel depth).Hence, the vision system has to deal with several heterogeneous image streams.That multiplicity and the heterogeneity of the sensors help to face various environmental contexts.We consider a multi-sensor vision system that has to work in different area (city, sea, forest) and handle several operations (multispectral fusion, panoramic, multifocus).The vision system has to also face various luminosity conditions : day, night or low-light condition.The challenge of designing architecture for such a vision system is that the working context can dynamically vary.The designer has to take in account this dynamic variation of the working context.The architecture should be enough flexible to adapt its processing to the requirements of the context.It also has to be able to detect any variation of the context and adapt itself according to the context.Above all, the design should satisfy area and power constraints of an embedded and portable system.In this thesis, we propose an embedded monitor enabling dynamic auto-adaptation of the current multi-stream architecture of Safran.The monitor accomplishes two tasks for the auto-adaptation of the architecture.First, he continuously observes changes of both external and internal contexts.Then, he decides the adaptation that the architecture needs in response to the context variation.Observation of the external context is about the type of the area and the luminosity conditions.While, observation of the internal context focuses on the current status of the vision system and its architecture.To perform the adaptation, the monitor sends adaptation commands toward controllers of the architecture.We introduce a Network-on-Chip (NoC) based interconnexion layer to fulfill monitoring communication.This NoC is inspired from our previous work cite{Ng2011}.This layer allows observing and commanding the processing stages without compromising the existing pixels streams.Routers of the NoC are responsible for routing observation data from processing stages to the monitor and adaptation commands from the monitor toward processing stages.The proposed NoC takes in account the heterogeneity of working frequencies.Finally, we present a memory controller that enables dynamic allocation of the frame memory.When the working context changes, memory resources requirements change too.For an optimised and economical resources utilisation, we propose to dynamically adapt the frame buffer allocation.Also, the proposed has the possibility to dynamically manage the bandwidth of the frame memory.We introduce a pondered round robin-based method with the ability to adapt the weights on-the-fly.Our proposition has been evaluated with a typical Safran multi-stream architecture.It has been implemented in a FPGA target.Area performances have been evaluated through synthesis for a ALTERA Cyclone V FPGA (5CGX).Latency performances have been evaluated thanks to ModelSim simulations
5

Approche crédibiliste pour la fusion multi capteurs décentralisée / Credibilist and decentralized approach for fusion in a multi sensors system

André, Cyrille 10 December 2013 (has links)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants. / Data fusion combines several observations in order to produce a more accurate and complete description of the studied phenomenon. In this scope, the multi sensors detection system is a key element. In this work, we aim at merging information pieces from various sensors in order to count the objects or targets in the scene, localize and track the moving targets. In addition, when several targets are simultaneously present, we aim at managing multiple targets. In term of theoretic framework, the problem was addressed in the specific context of the belief functions theory. This choice implies the development of a credibilistic representation of the localization uncertainties such that each detection is modeled by a basic belief assignment (BBA) defined on a discrete paving of the scene. This model, which is the first contribution, allows us to represent the uncertainties about target location, respecting their specific geometric forms of imprecision, e.g. corresponding either to omnidirectional sensors or to directional sensors. As a second contribution, we propose to define a specific BBA, to represent and take into account some a priori knowledge such as topographic information pieces: obstacles partially occulting the vision or roads on which the target presence is more plausible. These BBAs are then merged with the detections to improve the localization. Based on the available belief model on target location, we also proposed (third contribution) a method for data association between tracks and detections. The new function to maximize is derived from the joint pignistic probability of associations. This criterion allows us to perform all processing in the same frame of discernment. Belief function theory main drawback for our application derives from the size of the frame of discernment. To address this issue, we have defined an adaptive discernment frame using conditioning and coarsening operators. Moreover, since the number of focal elements can also dramatically increase due to the iterative nature of our application, the BBAs should be regularly simplified. To address this issue, we have proposed a new method based on the canonical decomposition. Finally, the developed fusion system was implemented in a decentralized architecture. Each node cooperates with its neighbors to produce a coherent set of targets. Validation was the last but not least part of our work. Firstly, simulations were used to evaluate the proposed solutions versus the already existing methods. Secondly, the fusion process was tested in real-life scenarios by implementing a module in the SmartMesh surveillance system. These experiments were necessary both to quantify the errors for each sensor and to integrate difficulties related to interfaces with other components.
6

Réalisation d'un capteur optofluidique à champ évanescent à base de microrésonateurs polymères pour la détection ultrasensible d'espèces (bio)chimiques à haute toxicité / Realization of an optofluidic evanescent field sensor based on polymer microring resonators for ultrasensitive detection of high toxicity (bio)chemicals species

Chauvin, David 16 December 2016 (has links)
La détection d'espèces (bio)chimiques à de très faibles concentrations représente un enjeu croissant dans les domaines de la santé, de l’environnement et de la défense. Un microrésonateur optique en polymère, sans marqueurs fluorescents, associé à un canal microfluidique, forme un capteur optofluidique, ce qui permet la détection d'analytes par interaction entre un champ évanescent à la surface du microrésonateur et la solution contenant l’espèce à étudier. Cette thèse présente la conception et la réalisation de capteurs optofluidiques à base de microrésonateurs optiques et de circuits microfluidiques en polymères, pour une très faible limite de détection et un temps de réponse rapide. De très bons résultats ont été obtenus en termes de limite de détection de polluants de type ions lourds dans l'eau, en abordant le problème sous différents angles : conception et réalisation de circuits optiques et microfluidiques, optimisation de l’interrogation optique du capteur par l’élaboration d’une méthodologie de mesure rapide et précise et un traitement du signal adéquat, étude des propriétés physico-chimiques des surfaces polymères, mise au point d’une instrumentation adaptée. Le capteur a permis la détection d'ions cadmium, ions hautement toxiques, jusqu'à une décision limite de détection de 50 pmol/L dans l'eau déionisée et 500 pmol/L dans l'eau du robinet grâce à un greffage sur la surface du microrésonateur de 2,2’- ((4-Amino-1,2-Phénylène) Bis (Carboxylatoazanédyil)) Diacétate. Une étude de régénération de la surface fonctionnalisée des microrésonateurs pour la détection d’ions cadmium a été réalisée et ce capteur a pu être régénéré pour plus de soixante mesures consécutives. D’autre part, l'analyse simultanée de deux polarisations orthogonales entre elles TE et TM de la réponse optique du capteur permet d’optimiser la sensibilité de mesure. Une étude de mesure différentielle consistant à comparer simultanément les mesures sur deux microrésonateurs identiques placés dans les même conditions physiques, l’un jouant le rôle de référence et l’autre étant un capteur spécifique, a permis de s’affranchir des différentes perturbations externes (pression, température, attachements non spécifiques). Ces instruments « multi-capteurs » sont également essentiels pour une compréhension détaillée des mécanismes de réactions de surface, une évaluation de l'efficacité d'accrochage de différents protocoles de fonctionnalisation et des mesures en multiplexage. / High sensitivity biochemical sensing is a concern for health, environment and defense. Thanks to the interaction between an analyte and an evanescent field at their surface, label-free polymer microring resonators, in association with a microfluidic channel, form an optofluidic sensor that can be used for biosensing. This thesis shows the realization of versatile optofluidic sensors based on polymer microring resonators combining a high detection limit with a short response time. High limit of detection of heavy ions in tap water was obtained after a careful optimization of the optical and microfluidic designs, signal processing, methodology of detection, surface chemistry and instrumentation. By functionalizing the resonator surface with 2,2’-((4Amino-1,2- Phenylene)Bis(Carboxylatoazanedyil))Diacetate, we obtained a limit of detection of 50 pmol/L in deionized water and 500 pmol/L in tap water. It should be stressed that the functionalized surface of the resonator was regenerated more than 60 times, enabling several sensing experiments with the same resonator. Besides, we were able to optimize the measurement sensitivity by an analysis of the orthogonal polarizations TE and TM from the sensor optical response. The simultaneous use of at least two microresonators in parallel (providing a reference signal and allowing multiplexing) enabled us to improve measurement accuracy and to compensate the signal from various external perturbations such as pressure, temperature and non-specific bindings. These “multi-sensors” are essential for (i) an in-depth understanding of surface reaction mechanism, (ii) an evaluation of the binding efficiency of different functionalization protocols and (iii) a high throughput characterization tool for multiple detections of pollutants.
7

Détermination et implémentation temps-réel de stratégies de gestion de capteurs pour le pistage multi-cibles / Real-Time Sensor Management Strategies for Multi-Object Tracking

Gomes borges, Marcos Eduardo 19 December 2018 (has links)
Les systèmes de surveillance modernes doivent coordonner leurs stratégies d’observation pour améliorer l’information obtenue lors de leurs futures mesures afin d’estimer avec précision les états des objets d’intérêt (emplacement, vitesse, apparence, etc.). Par conséquent, la gestion adaptative des capteurs consiste à déterminer les stratégies de mesure des capteurs exploitant les informations a priori afin de déterminer les actions de détection actuelles. L’une des applications la plus connue de la gestion des capteurs est le suivi multi-objet, qui fait référence au problème de l’estimation conjointe du nombre d’objets et de leurs états ou trajectoires à partir de mesures bruyantes. Cette thèse porte sur les stratégies de gestion des capteurs en temps réel afin de résoudre le problème du suivi multi-objet dans le cadre de l’approche RFS labélisée. La première contribution est la formulation théorique rigoureuse du filtre mono-capteur LPHD avec son implémentation Gaussienne. La seconde contribution est l’extension du filtre LPHD pour le cas multi-capteurs. La troisième contribution est le développement de la méthode de gestion de capteurs basée sur la minimisation du risque Bayes et formulée dans les cadres POMDP et LRFS. En outre, des analyses et des simulations des approches de gestion de capteurs existantes pour le suivi multi-objets sont fournies / Modern surveillance systems must coordinate their observation strategies to enhance the information obtained by their future measurements in order to accurately estimate the states of objects of interest (location, velocity, appearance, etc). Therefore, adaptive sensor management consists of determining sensor measurement strategies that exploit a priori information in order to determine current sensing actions. One of the most challenging applications of sensor management is the multi-object tracking, which refers to the problem of jointly estimating the number of objects and their states or trajectories from noisy sensor measurements. This thesis focuses on real-time sensor management strategies formulated in the POMDP framework to address the multi-object tracking problem within the LRFS approach. The first key contribution is the rigorous theoretical formulation of the mono-sensor LPHD filter with its Gaussian-mixture implementation. The second contribution is the extension of the mono-sensor LPHD filter for superpositional sensors, resulting in the theoretical formulation of the multi-sensor LPHD filter. The third contribution is the development of the Expected Risk Reduction (ERR) sensor management method based on the minimization of the Bayes risk and formulated in the POMDP and LRFS framework. Additionally, analyses and simulations of the existing sensor management approaches for multi-object tracking, such as Task-based, Information-theoretic, and Risk-based sensor management, are provided.
8

Conception et réalisation d'un multicapteur de gaz intégré à base de plateformes chauffantes sur silicium et de couches sensibles à oxyde métallique pour le contrôle de la qualité de l'air habitacle

Dufour, Nicolas 26 November 2013 (has links) (PDF)
De nombreuses études récentes ont montré la présence de quantités élevées de polluants à l'intérieur de l'habitacle automobile. La solution proposée pour pallier ce problème est l'élaboration d'un capteur de gaz capable de détecter les polluants pénétrant à l'intérieur du véhicule, engendrant la fermeture des volets d'aération lors de l'observation d'un pic de pollution. Les micro-capteurs chimiques à oxydes métalliques sont les meilleurs candidats pour résoudre cette problématique : ils présentent une grande sensibilité à de nombreux gaz, des temps de réponse rapides, et leur coût de production est faible. Leur principal défaut est un manque de sélectivité. Les travaux de recherches effectués ont consisté à mettre au point un micro-dispositif intégrant un réseau multicapteur de gaz à détection conductimétrique : sur une même puce micro-usinée en silicium sont intégrées plusieurs couches sensibles différentes, visant à détecter sélectivement plusieurs gaz : le monoxyde de carbone (CO), le dioxyde d'azote (NO2), l'ammoniac (NH3), l'acétaldéhyde (C2H4O) et le sulfure d'hydrogène (H2S). Pour se faire, trois axes d'études principaux se sont dégagés. La première partie de cette étude s'est portée sur la conception des micro-plateformes chauffantes à l'aide d'un outil de simulations numériques multiphysiques, pour optimiser, d'une part leur structure et leur géométrie afin d'atteindre les performances thermiques escomptées (optimisation du rendement thermoélectrique et minimisation d'interaction d'une cellule à l'autre), et d'autre part les performances thermomécaniques compte tenu de la possibilité d'utiliser un mode de fonctionnement des capteurs en transitoires thermiques rapides. Le modèle obtenu a été validé par comparaison à des mesures physiques. Celui-ci nous a permis d'améliorer le comportement thermique à la surface de la membrane et de réduire les coûts de fabrication en simplifiant le design. La fabrication en centrale technologique de la plateforme multicapteurs a ensuite été réalisée en tenant compte des améliorations proposées par la modélisation. Une étude spécifique sur l'intégration dans le procédé d'une technique industrielle des dépôts des matériaux sensibles par jet d'encre a été menée. Nous avons ainsi mis au point une méthode permettant de déposer rapidement et à bas coûts plusieurs couches sensibles (ZnO, CuO et SnO2) sur une même structure de détection. Enfin, nous avons procédé à l'élaboration d'un système décisionnel, comprenant deux éléments : la mise au point d'un profil optimisé de contrôle des résistances chauffantes et sensibles permettant d'améliorer la sensibilité, la sélectivité et la stabilité, et une analyse multivariée des données. Il a de ce fait été possible de détecter sélectivement la plupart des gaz ciblés (seuls et mélangés) à de faibles concentrations (0,2 ppm de NO2, 2 ppm de C2H4O, 5 ppm de NH3 et 100 ppm de CO).
9

Localisation précise et fiable de véhicules par approche multisensorielle / Accurate and reliable vehicle localization thanks to a multisensor approach

Aynaud, Claude 08 December 2015 (has links)
La localisation d’un véhicule est une étape cruciale dans le développement des véhicules intelligents. Les recherches sur ce sujet ont connu un grand essor ces dernières années. L’accent est souvent porté sur la précision de la localisation, nous présentons ici une méthode de localisation sur carte existante dont l’objectif est d’estimer la position du robot non seulement de façon précise mais également de manière fiable. Pour ce faire, l’algorithme développé se présente en deux étapes principales : une étape de sélection et de perception des informations les plus pertinentes et une étape de mise à jour de la position estimée et de la fiabilité, cette dernière étape permet également de détecter et réparer ou éliminer les précédentes erreurs. La perception de l’environnement est réalisée à travers différents capteurs associés à des détecteurs spécifiques. L’humain utilise aussi différents capteurs pour se localiser et va intuitivement sélectionner le plus performant, s’il fait jour il utilisera ses yeux, sinon son oreille ou le toucher. Nous avons développé une approche similaire pour le robot qui tient compte des contraintes environnementales et de l’estimation actuelle pour sélectionner à chaque instant l’ensemble capteur, indice de la scène et détecteur le plus pertinent. La phase de perception, étant pilotée par un processus Top-Down, peut bénéficier d’informations déjà connues permettant ainsi de se focaliser sur l’indice recherché et d’améliorer les phases de détection et d’associations de données. Cette approche Top-Down s’appuie sur un réseau bayésien. Ce dernier permet de modéliser les interactions entre les différents événements qui se produisent en gérant l’incertitude. Il permet une prise en compte facile des différents événements. Par ailleurs le réseau bayésien présente une grande flexibilité pour l’ajout d’événements supplémentaires pouvant engendrer des non-détections (tels que dysfonctionnement de capteurs, conditions météorologiques, etc.). Les données de l’environnement sont rendues disponibles grâce à une carte géoréférencée préalablement fournie. Avec le développement de cartes disponibles facilement sur internet, cette façon de faire permet d’exploiter au mieux l’information déjà fournie. L’utilisation d’une carte géoréférencée permet d’avoir un référentiel commun entre tous les véhicules ou éléments de l’infrastructure facilitant ainsi l’échange d’informations et ouvrant du coup la possibilité d’interaction simplifiées dans le cas de flottes par exemple. Les résultats montrent que l’approche développée est pertinente pour une localisation précise et fiable aussi bien statique que dynamique. L’ajout de nouveaux capteurs se fait naturellement et sans nécessiter d’heuristique particulière. La localisation obtenue est suffisamment précise et fiable pour permettre des applications de conduite autonome utilisant, entre autres, cet algorithme. / Vehicle localization is a crucial step in the development of smart vehicles. The research in this domain has been growing in recent years. Generally, the effort is focused on the localization accuracy, we present here a localization method on existing map where the objective is to estimate the robot position not only with accuracy but also with confidence. To achieve this , the algorithm developed has two main steps : one, selection and perception of the most relevant informations and two, position estimation and confidence update. This last step also allows to detect and eliminate the previous errors. Environment perception is well achieved, thanks to different sensors associated with specific detectors. Humans use different senses, shifting automatically in order to localize themselves depending on the situation of the environment, for e.g if there is enough illumination we depend on eyes, else the ear or the touch otherwise. We have developed a similar approach for the robot that takes into account the specific environmental constraints and actual position estimation to select at each instant the most relevant set of sensor, landmark and detector. The perception step, led by a top-down process, can use already known informations allowing a focus on the searched landmark and an improvement of the detection and data associations steps. This top-down approach is well implemented, thanks to a Bayesian network. Bayesian network allows to model the interactions between the different probable events with management of the uncertainty. With this network, it is very easy to take into account those different events. Moreover, a Bayesian network has a great flexibility to take into consideration additional events that can cause false detections (like sensor failure, meteorological conditions and others). The environment data is obtained with a Georeferenced map (from GIS). With the already available maps on the internet, allows to exploit an already existing information. The use of a Georeferenced map facilitates the communication of informations between a vehicle and several other vehicles or with an element of the infrastructure, that can be very useful for multi vehicle coordination, for example. The results shows that the developed approach is very accurate and reliable for localization, whether static or dynamic, and can be applied for autonomous driving. Moreover, new sensors can be added at ease.
10

Stratégie de perception active pour l'interprétation de scènes / Active Perception’s Strategy for scene’s interpretation

Bernay-Angeletti, Coralie 29 June 2016 (has links)
La perception est le moyen par lequel nous connaissons le monde extérieur. C’est grâce à nos perceptions que nous sommes capables d’interagir avec notre environnement et d’accomplir de nombreuses actions du quotidien comme se repérer, se déplacer, reconnaître des objets et autres. Cette perception n’est pas juste passive comme peut l’être une sensation, elle comporte des aspects actifs. En particulier, elle peut être orientée dans un but précis, permettant de filtrer les données pour ne traiter que les plus pertinentes. Si la perception humaine est particulièrement efficace, la perception artificielle, elle, demeure un problème complexe qui se heurte à de nombreuses difficultés. Ainsi, les changements de conditions de perception comme des modifications de l’illumination ou des occultations partielles de l’objet à percevoir doivent pouvoir être gérées efficacement. Pour résoudre ces difficultés, s’inspirer de la perception humaine semble être une piste intéressante. Ce manuscrit propose un système de perception polyvalent et générique reposant sur une stratégie de perception active. Pour ce faire, nous proposons un algorithme Top-Down utilisant un modèle en parties. Le problème de perception est transformé en un problème d’estimation d’un vecteur de caractéristiques. La détection des différentes parties permet de réaliser cette estimation. Le système de perception proposé est un algorithme itératif multi-capteurs. À chaque itération, il sélectionne au mieux, en fonction des objectifs fixés par l’application, la partie à détecter ainsi que les meilleurs capteur et détecteur compatibles. Un réseau bayésien est utilisé pour prendre en compte les événements incertains pouvant survenir lors de ce processus comme la défaillance d’un détecteur ou la non existence potentielle d’une partie donnée. Un processus de focalisation à la fois spatiale et de caractéristiques permet d’améliorer la détection en augmentant le rapport signal sur bruit, en restreignant la zone de recherche pour une partie et en éliminant certains des candidats trouvés. Ce processus de focalisation permet aussi de réduire les temps de calcul et de restreindre l’influence des distracteurs. L’ajout de nouveaux capteurs, détecteurs ou parties se fait simplement. De plus, l’utilisation d’un réseau bayésien permet une grande flexibilité au niveau de la modélisation des événements pris en compte : il est facile de rajouter de nouveaux événements pour obtenir une modélisation plus réaliste. L’algorithme proposé a été utilisé pour plusieurs applications incluant de la reconnaissance d’objets, de l’estimation fine de pose et de la localisation. / Perception is the way by which we know the outside world. Thanks to our perceptions we are able to interact with our environment and to achieve various everyday life actions as locating or moving in an environment, or recognizing objects. Perception is not passive whereas sensations are, it has active components. In particular, perception can be oriented for a specific purpose allowing to filter data and to take care only of the most relevant. If human perception is particularly effective, artificial perception remains a complex problem with a lot of non solved difficulties. For example, changes of perception conditions as modification of illumination or partial occultation of the searched object must be effectively managed. This thesis proposes a system of perception based on a strategy of active perception which can adapt itself to various applications. To do it, we propose an algorithm Top-Down using a part-based model. The problem of perception is transformed into a problem of estimation of a characteristics vector. The detection of the different parts constituting the searched object allows to realize this estimation. The proposed perceptive system is an iterative and multi-sensors algorithm. In every iteration, it selects, at best, according to the application objectives, the part to detect and the best compatible sensor and detector. A bayesian network is used to take into account uncertain events which can arise during this process as detector failure or potential non existing part. A focus process consisting of a spatial focus and of a characteristics focus, improves the detection by restricting the search area, by improving the signal to noise ratio and by eliminating some erroneous candidates. This focus process also allows to reduce computation time and to restrict influence of distractors. Adding a part, a sensor or a detector is simple. Furthermore, the use of a bayesian network allows to be flexible in the events modelisation : it is easy to add new events to obtain a more realistic modelisation. The proposed algorithm has been used for several applications including object’s recognition, fine pose estimation and localization. So, it is multi-purpose and generic.

Page generated in 0.0535 seconds