• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Réflectométrie appliquée à la détection de défauts non francs dans les torons de câbles / Reflectometry applied to soft fault detection in bundles of wires

Franchet, Maud 12 September 2012 (has links)
Ces travaux de thèse portent sur la détection de défauts non francs dans des structures filaires particulières : les lignes de transmission a multiconducteurs (MTL), aussi appelées torons de câbles. Couramment employées pour le diagnostic de réseaux filaires, les méthodes par réflectométrie ne sont, pour l'heure, pas suffisamment performantes pour détecter de tels défauts. Par ailleurs, elles n'ont, en général, été étudiées et développées que pour des lignes simples, ou les phénomènes de couplages électromagnétiques entre les conducteurs (diaphonie) ne sont pas présents. Ces derniers sont cependant porteurs d'information supplémentaire sur l'état du câble. Les utiliser permettrait d'accroître la sensibilité de détection aux défauts. L'objectif est de proposer une nouvelle méthode de réflectométrie, tirant profit des signaux de diaphonie pour détecter les défauts non francs. Une telle méthode présente également l'avantage d'être adaptée aux structures en toron. Après avoir étudié l'impact d'un défaut non franc sur les paramètres caractéristiques d'une MTL et sur les signaux de diaphonie, une méthode, la "Cluster Time Frequency Domain Reflectometry ", a pu être proposée. Il s'agit d'un procédé en trois étapes. Des mesures par réflectométrie temporelle sont tout d'abord réalisées à l'entrée de la ligne à diagnostiquer. Tous les signaux présents, y compris ceux de diaphonie, sont enregistrés. Un traitement temps-fréquence leur est ensuite appliqué afin d'amplifier la présence d'éventuels défauts. Enfin, un algorithme de clustering, spécifiquement développé pour le diagnostic filaire, est utilisé de manière a bénéficier de l'ensemble de l'information disponible / Research works presented in this thesis rely on detecting soft faults (incipient faults) in specic wiring structures : multiconductor transmission lines (MTL), also known as bundles of wires. Reflectometry methods, often used for the diagnosis of wiring networks, aren't for now efficient enough at detecting such defects. Besides, they have been designed for single lines only, where electromagnetic coupling between conductors (crosstalk) is not to be considered. However such phenomenon can provide more information about the state of the cable. Using this information could enable us to detect soft faults more easily. Our goal is to propose a new reflectometry method, which takes advantage of crosstalk signals in order to detect incipient faults. Such a tool has also the advantage of being well-adapted to bundles of cables. Thanks to the preliminary study of the impact of soft faults on the characteristic parameters of a MTL and on crosstalk signals, a method called "Cluster Time Frequency Domain Reflectometry ", has been proposed. It is a three step process. Firts temporal reflectometry measurements are made at the beginning of the line under test. All the available signals, even crosstalk ones, are recorded. A time-frequency process is then applied on them, in order to amplify the presence of defects. Finally, a clustering algorithm, that has been specically developed for wiring diagnosis, is used to benefit from the whole available information
32

Reconnaissance de contexte stable pour l'habitat intelligent / Stable context recognition for smart home

Pietropaoli, Paoli 10 December 2013 (has links)
L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés. / Smart home is a major subject of interest. It helps to assist elderly or disabled people, improve comfort, safety, and also save energy. Today, ubiquitous computing is developed and integrated into the smart home providing context-awareness. Unfortunately, understanding what happens in a home is not always easy. In this thesis, we explain how context can be used to deploy services tailored to the activities and needs of residents. Understanding context requires the installation of sensors but also the abstraction of raw data into easily understandable data usable by humans and services. We present a multi-layer architecture of data fusion used to obtain contextual information of different levels of abstraction. The implementation of the lower layers is presented in detail with the application of the theory of belief functions for the abstraction of raw sensor data. Finally, are presented the deployment of a prototype that allowed us to validate our approach and the deployed services.
33

Gestion dynamique locale de la variabilité et de la consommation dans les architectures MPSoCs / Local dynamic management of variability and power consumption in MPSoCs architectures

Vincent, Lionel 12 December 2013 (has links)
Dans le contexte du développement de systèmes embarqués alliant hautes performances et basse consommation, la recherche de l'efficacité énergétique optimale des processeurs est devenue un défi majeur. Les solutions architecturales se sont positionnées durant les dernières décennies comme d'importantes contributrices à ce challenge. Ces solutions, permettant la gestion du compromis performance de calcul/consommation, se sont dans un premier temps développées pour les circuits mono-processeurs. Elles évoluent aujourd'hui pour s'adapter aux contraintes de circuits MPSoCs de plus en plus complexes et sensibles aux déviations des procédés de fabrication, aux variations de tension et de température. Cette variabilité limite aujourd'hui drastiquement l'efficacité énergétique de chacune des unités de calcul qui composent une architecture MPSoC, car des marges pessimistes de fonctionnement sont généralement prises en compte. De grandes améliorations peuvent être attendues de la diminution de ces marges de fonctionnement en surveillant dynamiquement et localement la variabilité de chaque unité de calcul afin de réajuster ses paramètres de fonctionnement tension/fréquence. Ce travail s'insère dans une solution architecturale bas-coût nommée AVFS, basée sur une optimisation des techniques de gestion locales DVFS, permettant de réduire les marges de conception afin d'améliorer l'efficacité énergétique des MPSoCs, tout en minimisant l'impact de la solution proposée sur la surface de silicium et l'énergie consommée. Le développement d'un système de surveillance des variations locales et dynamiques de la tension et de la température à partir d'un capteur bas coût a été proposé. Une première méthode permet d'estimer conjointement la tension et la température à l'aide de tests statistiques. Une seconde permet d'accélérer l'estimation de la tension. Enfin, une méthode de calibration associée aux deux méthodes précédentes a été développée. Ce système de surveillance a été validé sur une plateforme matérielle afin d'en démontrer le caractère opérationnel. En prenant en compte les estimées de tension et de température, des politiques visant à réajuster dynamiquement les consignes des actionneurs locaux de tension et de fréquence ont été proposées. Finalement, la consommation additionnelle due à l'intégration des éléments constitutifs de l'architecture AVFS a été évaluée et comparée aux réductions de consommation atteignables grâce aux réductions des marges de fonctionnement. Ces résultats ont montré que la solution AVFS permet de réaliser des gains en consommation substantiels par rapport à une solution DVFS classique. / Nowadays, embedded systems requiring high performance and low power, the search for the optimal efficiency of the processors has become a major challenge. Architectural solutions have positioned themselves in recent decades as one of the main contributors to this challenge. These solutions enable the management of the trade-off between performance / power consumption, initially developed for single -processor systems. Today, they evolve to be adapted to the constraints of circuits MPSoCs increasingly complex and sensitive to process, voltage and temperature variations. This PVT variability limits drastically the energy efficiency of each of the processing units of a MPSoC architecture, taking into account pessimistic operating margins. Significant improvements can be expected from the reduction of the operating margins by dynamically monitoring and local variability of each resource and by adjusting its voltage / frequency operating point. This work is part of a low-cost architectural solution called AVFS, based on local DVFS optimization technique, to reduce design margins and improve the energy efficiency of MPSoCs, while minimizing the silicon surface and the energy additional cost. The development of a monitoring system of local and dynamic voltage and temperature variations using a low-cost sensor has been proposed. A first method estimates jointly voltage and temperature using statistical tests. A second one speeds up estimation of the voltage. Finally, a calibration method associated with the two previous methods has been developed. This monitoring system has been validated on a hardware platform to demonstrate its operational nature. Taking into account the estimation of voltage and temperature values, policies to dynamically adjust the set point of the local voltage and frequency actuators have been proposed. Finally, the additional power consumption due to the integration of the components of the architecture AVFS was evaluated and compared with reductions achievable through reductions in operating margins consumption. These results showed that the AVFS solution can achieve substantial power savings compared to conventional DVFS solution.
34

Approche crédibiliste pour la fusion multi capteurs décentralisée / Credibilist and decentralized approach for fusion in a multi sensors system

André, Cyrille 10 December 2013 (has links)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants. / Data fusion combines several observations in order to produce a more accurate and complete description of the studied phenomenon. In this scope, the multi sensors detection system is a key element. In this work, we aim at merging information pieces from various sensors in order to count the objects or targets in the scene, localize and track the moving targets. In addition, when several targets are simultaneously present, we aim at managing multiple targets. In term of theoretic framework, the problem was addressed in the specific context of the belief functions theory. This choice implies the development of a credibilistic representation of the localization uncertainties such that each detection is modeled by a basic belief assignment (BBA) defined on a discrete paving of the scene. This model, which is the first contribution, allows us to represent the uncertainties about target location, respecting their specific geometric forms of imprecision, e.g. corresponding either to omnidirectional sensors or to directional sensors. As a second contribution, we propose to define a specific BBA, to represent and take into account some a priori knowledge such as topographic information pieces: obstacles partially occulting the vision or roads on which the target presence is more plausible. These BBAs are then merged with the detections to improve the localization. Based on the available belief model on target location, we also proposed (third contribution) a method for data association between tracks and detections. The new function to maximize is derived from the joint pignistic probability of associations. This criterion allows us to perform all processing in the same frame of discernment. Belief function theory main drawback for our application derives from the size of the frame of discernment. To address this issue, we have defined an adaptive discernment frame using conditioning and coarsening operators. Moreover, since the number of focal elements can also dramatically increase due to the iterative nature of our application, the BBAs should be regularly simplified. To address this issue, we have proposed a new method based on the canonical decomposition. Finally, the developed fusion system was implemented in a decentralized architecture. Each node cooperates with its neighbors to produce a coherent set of targets. Validation was the last but not least part of our work. Firstly, simulations were used to evaluate the proposed solutions versus the already existing methods. Secondly, the fusion process was tested in real-life scenarios by implementing a module in the SmartMesh surveillance system. These experiments were necessary both to quantify the errors for each sensor and to integrate difficulties related to interfaces with other components.
35

Localisation d'un robot humanoïde en milieu intérieur non-contraint / Localization of a humanoid robot in a non-constrained indoor environment

Nowakowski, Mathieu 03 April 2019 (has links)
Après la démocratisation des robots industriels, la tendance actuelle est au développement de robots sociaux dont la fonction principale est l'interaction avec ses utilisateurs. Le déploiement de telles plate-formes dans des boutiques, des musées ou des gares relance différentes problématiques dont celle de la localisation pour les robots mobiles. Cette thèse traite ainsi de la localisation du robot Pepper en milieu intérieur non-contraint. Présent dans de nombreuses boutiques au Japon, Pepper est utilisé par des personnes non-expertes et doit donc être le plus autonome possible. Cependant, les solutions de localisation autonome de la littérature souffrent des limitations de la plate-forme. Les travaux de cette thèse s'articulent autour de deux grands axes. D'abord, le problème de la relocalisation dans un environnement visuellement redondant est étudié. La solution proposée consiste à combiner la vision et le Wi-Fi dans une approche probabiliste basée sur l'apparence. Ensuite, la question de la création d'une carte métrique cohérente est approfondie. Pour compenser les nombreuses pertes de suivi d'amers visuels causées par une fréquence d'acquisition basse, des contraintes odométriques sont ajoutées à une optimisation par ajustement de faisceaux. Ces solutions ont été testées et validées sur plusieurs robots Pepper à partir de données collectées dans différents environnements intérieurs sur plus de 7 km. / After the democratization of industrial robots, the current trend is the development of social robots that create strong interactions with their users. The deployment of such platforms in shops, museums or train stations raises various issues including the autonomous localization of mobile robots. This thesis focuses on the localization of Pepper robots in a non-constrained indoor environment. Pepper robots are daily used in many shops in Japan and must be as autonomous as possible. However, localization solutions in the literature suffer from the limitations of the platform. This thesis is split into two main themes. First, the problem of relocalization in a visually redundant environment is studied. The proposed solution combines vision and Wi-Fi in a probabilistic approach based on the appearance. Then, the question of a consistent metrical mapping is examined. In order to compensate the numerous losses of tracking caused by the low acquisition frequency, odometric constraints are added to a bundle adjustment optimization. These solutions have been tested and validated on several Pepper robots, from data collected in different indoor environments over more than 7 km.
36

Analyse multimodale et multicritères pour l'expertise et la localisation de défauts dans les composants électriques modernes / multimodal and multi-criteria analysis for the expertise and locating faults in modern electrical components

Boscaro, Anthony 20 November 2017 (has links)
Ce manuscrit de thèse illustre l’ensemble des travaux de recherche répondant aux problématiques de traitement des données issues des techniques de localisation de défauts. Cette phase de localisation étant une étape déterminante dans le processus d’analyse de défaillances des circuits submicroniques, il est primordial que l’analyste exploite les résultats de l’émission de lumière et du sondage laser. Cependant, ce procédé d’expertise reste séquentiel et dépend uniquement du jugement de l’expert. Cela induit une probabilité de localisation non quantifiée. Afin de pallier ces différents défis, nous avons développé tout au long de cette thèse, une méthodologie d’analyse multimodale et multicritères exploitant le caractère hétérogène et complémentaire des techniques d’émission de lumière et de sondage laser. Ce type d’analyse reposera sur des outils de haut niveau tels que le traitement du signal et la fusion de données, pour au final apporter une aide décisionnelle à l’expert à la fois qualitative et quantitative.Dans un premier temps, nous détaillerons l’ensemble des traitements utilisés en post-acquisition pour l’amélioration des données 1D et 2D. Par la suite, l’analyse spatio-temporelle des données en sondage laser sera explicitée. L’aide décisionnelle fera l’objet de la dernière partie de ce manuscrit, illustrant la méthode de fusion de données utilisée ainsi que des résultats de validation. / The purpose of this manuscript is to exhibit the research work solving the issue of data processing stem from defect localization techniques. This step being decisive in the failure analysis process, scientists have to harness data coming from light emission and laser techniques. Nevertheless, this analysis process is sequential and only depends on the expert’s decision. This factor leads to a not quantified probability of localization. Consequently to solve these issues, a multimodaland multicriteria analysis has been developped, taking advantage of the heterogeneous and complementary nature of light emission and laser probing techniques. This kind of process is based on advanced level tools such as signal/image processing and data fusion. The final aim being to provide a quantitive and qualitative decision help for the experts.The first part of this manuscript is dedicated to the description of the entire process for 1D and 2D data enhancement. Thereafter, the spatio-temporal analysis of laser probing waveforms will be tackled. Finally, the last part highlights the decision support brought by data fusion.
37

Capteur de mouvement intelligent pour la chirurgie prothétique naviguée

Claasen, Göntje Caroline 17 February 2012 (has links) (PDF)
Nous présentons un système de tracking optique-inertiel qui consiste en deux caméras stationnaires et une Sensor Unit avec des marqueurs optiques et une centrale inertielle. La Sensor Unit est fixée sur l'objet suivi et sa position et orientation sont déterminées par un algorithme de fusion de données. Le système de tracking est destiné à asservir un outil à main dans un système de chirurgie naviguée ou assistée par ordinateur. L'algorithme de fusion de données intègre les données des différents capteurs, c'est-à-dire les données optiques des caméras et les données inertielles des accéléromètres et gyroscopes. Nous présentons différents algorithmes qui rendent possible un tracking à grande bande passante avec au moins 200Hz avec des temps de latence bas grâce à une approche directe et des filtres dits invariants qui prennent en compte les symmétries du système. Grâce à ces propriétés, le système de tracking satisfait les conditions pour l'application désirée. Le système a été implementé et testé avec succès avec un dispositif expérimental.
38

Fusion multi-capteurs pour la représentation et le suivi des objets dynamiques

Kmiotek, Pawel 07 December 2009 (has links) (PDF)
Le sujet de la thèse s'inscrit dans le cadre du projet "Véhicule intelligent et son intégration dans la ville du futur" mené au laboratoire Systèmes et Transports de l'Université de Technologie de Belfort-Montbéliard. L'objectif de ce projet est d'assurer la navigation autonome d'un véhicule dans un environnement urbain. Cette thèse s'intéresse plus particulièrement au problème de la perceptioon de l'environnement du véhicule en combinant plusieurs capteurs. Le but est de détecter et suivre des objets dynamiques et de les situer par rapport au véhicule instrumenté. La contribution de la thèse commence par la proposition d'une nouvelle technique de représentation des objets. Cette technique est basée sur l'utilisation des boîtes englobantes orientée (OBB) et exploite deux paradigmes qui sont l'incertitude Inter-Rays (IR) et l'hypothèse de la taille fixe des objets (FS). Pour augmenter la qualité de l'estimation d'état des objets et du suivi, l'algorithme de fusion de deux télémètres laser est présenté. Enfin, deux méthodes d'association de données sont décrites. La première, appelée NNF, est une adaptation de la technique du plus proche voisin à la nouvelle technique de représentation. La deuxième méthode permet de résoudre le problème de clustering des données télémétrique par une fusion d'un télémètre laser et d'un capteur stéréoscopique. Les algorithmes proposés sont testés et évalués à l'aide d'un simulateur développé dans le cadre de la thèse et sur un prototype de véhicule électrique.
39

Support de la qualité de service dans les réseaux de capteurs sans fil pour la détection d'événements

Li, Yanjun 10 November 2010 (has links) (PDF)
Cette thèse présente nos travaux à la fois théoriques et techniques sur la fourniture de la qualité de service dans les réseaux de capteurs sans fil, travaux développés principalement pour la détection en temps réel d'événements. Le premier problème fondamental pour assurer une qualité de service est la connectivité d'un réseau. La probabilité de non-isolation de nœud est donnée garantissant une borne supérieure de 1-connectivité du réseau. Un deuxième problème traité concerne la considération conjointe du problème de connectivité de communication et de couverture de détection. Ce problème étant formalisé comme un problème d'optimisation multi-objectif, un algorithme heuristique du type génétique a été développé, permettant ainsi d'aider au déploiement. Pour assurer la communication des données en temps réel et de façon fiable, un protocole de routage basé sur SPEED a été développé. Les simulations ont montré une amélioration notable de performances par rapport aux solutions existantes. Afin d'assurer la fiabilité de l'information finale, un ensemble de règles de fusion de décision a été proposé. Quant à son implémentation réelle avec moins de complexité sur des nœud de ressources limitées, trois alternatives sousoptimales ont été proposées et qui donnent des performances satisfaisantes dans des plages de rapport signal sur bruit.
40

Architectures pour des systèmes de localisation et de cartographie simultanées

Vincke, Bastien 03 December 2012 (has links) (PDF)
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.

Page generated in 0.0826 seconds