• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Contribution à la surveillance temps-réel du système "Conducteur - Véhicule - Environnement" : élaboration d'un système intelligent d'aide à la conduite

Lauffenburger, Jean-Philippe 20 December 2002 (has links) (PDF)
Le sujet de cette thèse vise l'intégration dans une automobile de fonctions d'observation, de supervision, d'aide à la décision ou encore de commande. La problématique est le développement d'une assistance à la conduite longitudinale et latérale basée sur la localisation du véhicule. Le but est de signaler et corriger les faiblesses de conduite en considérant les paramètres du véhicule, du conducteur et la topologie de la route. Selon la localisation du véhicule, une trajectoire de référence et la vitesse associée sont déterminées en fonction du conducteur et de la phase de conduite. Ces références sont utilisées pour effectuer le contrôle du véhicule ou pour informer le conducteur de l'inadéquation de ses consignes. <br> Dans ce contexte, la localisation du véhicule et particulièrement les informations de l'environnement d'évolution doivent être pertinentes. Elles sont obtenues grâce à une base de données cartographique spécifiquement développée dans le cadre de ces travaux. Celle-ci est caractérisée par une précision supérieure à celle des bases de données traditionnellement employées dans des dispositifs de navigation.
92

Du Signal à l'Information : le capteur intelligent

Noury, Norbert 12 April 2002 (has links) (PDF)
Le capteur a profité des récents progrès en matière d'intégration des composants électroniques qui permettent désormais de rassembler dans un même volume très réduit à la fois le capteur, l'électronique de conditionnement des signaux et les circuits numériques de traitement des données et de communication avec l'extérieur. Mais le capteur Intelligent va bien au-delà de cette simple juxtaposition, il sait extraire l'information nécessaire à une prise de décision, il intègre des services qui lui permettent de participer pleinement à la mission du système de décision distribué, au sein duquel les équipements coopèrent via un système de communication dédié, l'ossature d'une véritable base de données temps-réel. Ce mémoire introduit progressivement la notion de capteur intelligent en s'appuyant sur de nombreux exemples tirés de l'expérience personnelle de l'auteur, depuis des capteurs à base de polymères piézoélectriques pour des applications industrielles, jusqu'aux systèmes domotiques pour le suivi de la santé à domicile, en passant par des capteurs embarqués pour la télémédecine.
93

Fusion distribuée de données échangées dans un réseau de véhicules

El Zoghby, Nicole 19 February 2014 (has links) (PDF)
Cette thèse porte sur l'étude des techniques de fusion de données réparties et incertaines au sein d'un réseau de véhicules pour gérer la confiance dans les autres véhicules ou dans les données reçues. L'algorithme de fusion distribuée proposé est basé sur les fonctions de croyance et est appliqué par chaque nœud à la réception des messages. In se base sur la gestion d'une connaissance directe, locale à chaque nœud et d'une connaissance distribuée diffusée dans le réseau. Cette dernière résulte de la fusion des messages par un opérateur adapté prenant en compte les cycles éventuels et limitant l'effet de "data incest". Chaque nœud peut être autonome pour estimer la confiance mais la coopération entre les véhicules permet d'améliorer et de rendre plus robuste cette estimation. L'algorithme peut être adapté au cas d'étude en considérant un ou plusieurs éléments d'observation et en prenant en compte l'obsolescence des données. Lorsqu'il y a plusieurs éléments d'observation, se pose le problème de l'association de données nécessaire avant l'étape de combinaison. Un nouvel algorithme d'association a été formalisé dans le cadre des fonctions de croyance. Il a été démontré que ce problème est équivalent à un problème d'affectation linéaire, qui peut être résolu en temps polynomial. Cette solution est à la fois optimale et beaucoup plus efficace que d'autres approches développées dans ce formalisme. La gestion de la confiance dans les nœuds et dans les données échangées ont été illustrées par la mise en œuvre de deux applications : la détection de faux nœuds dans une attaque Sybil et la gestion de la confiance dans les cartes dynamiques pour la perception augmentée.
94

Microsystèmes communicants pour un habitat intelligent

Campo, Eric 04 July 2003 (has links) (PDF)
Les travaux de recherche présentés dans ce mémoire s'inscrivent dans la dynamique de progrès liés au développement de la microélectronique, des télécommunications à courtes portées et de la fusion de données multicapteurs. Ils portent sur l'étude de microsystèmes autonomes communicants interconnectés pour des fonctions de surveillance. Ces nouveaux dispositifs ont pour objectif d'offrir des capacités de traitement-communication inexistant initialement dans des objets physiques de types senseurs/actionneurs. Leur développement sera considérable dès lors qu'ils pourront constituer un réseau local communicant et s'insérer de manière simple dans un système plus global. De nouvelles fonctionnalités de supervision sont alors envisageables. Ces travaux contribuent par une approche globale et méthodologique à cet objectif en étudiant les principaux constituants de tels microsystèmes depuis la conception jusqu'à la réalisation : capteurs de présence, dispositifs de communication intégrés sans fil et algorithmes de diagnostic. La démarche scientifique s'appuie sur quelques exemples d'application dans le domaine de la domotique qui ont permis d'une part, d'élaborer et de valider expérimentalement les concepts technologiques proposés, et d'autre part, d'élaborer des solutions techniques pour des architectures de communication adaptées. Deux systèmes d'intelligence ambiante reposant sur le concept original d'apprentissage automatisé des habitudes de présence servent de support aux différents développements : PROSAFE pour la surveillance de personnes âgées et ERGDOM pour la gestion du confort thermique ressenti. Ces démonstrateurs réalisés et évalués sur sites réels contribuent à l'avancée des travaux effectués pour l'habitat intelligent
95

reconstruction de formes pour la chirurgie assistée par ordinateur basée sur l'enregistrement

Fleute, Markus 03 October 2001 (has links) (PDF)
L'objectif de cette thèse est la reconstruction de surfaces anatomiques à partir d'un nombre restreint de radiographies et de points acquis en phase per-operatoire. L'approche proposée repose sur une mise en correspondance des données avec un modèle déformable statistique afin d'incorporer de la connaissance à priori sur la forme de l'objet à reconstruire. L'élaboration d'un tel modèle statistique nécessite l'analyse de forme dans une population donnée. Pour cette analyse un modèle générique de l'objet est utilisé afin d'effectuer simultanément la segmentation des structures et la mise en correspondance de points appariés dans un ensemble d'examens tomodensitométriques. La reconstruction à partir d'un nuage de points est effectuée par une méthode de recalage 3D/3D non rigide. L'application de cette technique d'interpolation et d'extrapolation de données incomplètes est montrée dans un système pour la reconstruction du ligament croisé antérieur. Pour la reconstruction à partir de radiographies une méthode de recalage 3D/2D non rigide est proposée afin de mettre en correspondance le modèle statistique avec les contours de l'objet segmenté dans les radiographies calibrées. Des expérimentations ont été effectuées avec un modèle statistique de vertèbres lombaires, en vue de l'application clinique du vissage pédiculaire. De plus il est montré que la mise en correspondance hybride combinant le recalage 3D/3D et le recalage 3D/2D pourrait être une option intéressante pour certaines applications dans le domaine des Gestes Médicaux Chirurgicaux Assistés par Ordinateur.
96

Rejeu de chemin et localisation monoculaire : Application du Visual SLAM sur carte peu dense en environnement extérieur contraint.

Thomas, Féraud 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un ltre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normale de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
97

Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint

Féraud, Thomas 09 December 2011 (has links) (PDF)
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
98

Calcul de trajectoires pour la préconisation de manoeuvres automobiles sur la base d'une perception multi-capteur : application à l'évitement de collision

Houenou, Adam 09 December 2013 (has links) (PDF)
Les systèmes d'aide à la conduite, en général, et plus particulièrement les systèmes d'aide à l'évitement de collision sont de plus en plus en présents dans les véhicules car ils ont un très fort potentiel de réduction du nombre d'accidents de la circulation.En effet, ces systèmes ont pour rôle d'assister le conducteur, voire de se substituer à lui lorsque la situation de conduite indique un risque de collision important. Cette thèse traite du développement de ces systèmes en abordant quelques problématiques rencontrées.Afin de réagir convenablement, le système a d'abord besoin d'une représentation aussi fidèle que possible de l'environnement du véhicule. La perception est faite au moyen de capteurs extéroceptifs qui permettent de détecter les objets et d'en mesurer divers paramètres selon leur principe de mesure. La fusion des données individuelles des capteurs permet d'obtenir une information globale plus juste, plus certaine et plus variée. Ce travail traite en profondeur des méthodes de suivi d'objets par fusion de données multi-capteur, multimodale au niveau piste. Les approches proposées ont été évaluées puis approuvées grâce à des données de roulage réel et sur des données de conduite simulées.Il est ensuite nécessaire de faire une analyse de la scène perçue au cours du temps afin d'évaluer le risque de collision encouru par le véhicule porteur du système. Cette thèse propose des méthodes de prédiction de trajectoire et de calcul de probabilité de collision, à divers horizons temporels afin de quantifier le risque de collision et d'établir ainsi divers niveaux d'alerte au conducteur. Un simulateur de scénarios automobiles a été utilisé pour valider la cohérence des méthodes d'analyse de scène.Enfin, lorsque le risque de collision atteint un seuil jugé critique, le système doit calculer une trajectoire d'évitement de collision qui sera ensuite automatiquement exécutée. Les principales approches de planification de trajectoires ont été revues et un choix a été fait et motivé en accord avec le contexte de système d'aide à la conduite.
99

Etude et conception d'un système de télésurveillance et de détection de situations critiques "par suivi actimétrique" des personnes à risque en milieu Indoor et Outdoor

Bourennane, Walid 25 September 2013 (has links) (PDF)
Le vieillissement rapide de la population implique une évolution du système de soins pour prendre en charge les personnes dépendantes dont la proportion ne cesse de croître. Une option possible est de développer et de mettre en oeuvre une technologie d'assistance à domicile. Ce travail de thèse consiste à concevoir et à expérimenter des solutions de " surveillance " multicapteurs : déploiement de capteurs dans l'environnement réel du patient, fusion multisensorielle et algorithmes de diagnostics automatiques, afin d'assurer la sécurité des personnes mais également d'aider les professionnels de santé à maintenir la qualité du suivi et des soins. Ce manuscrit présente à travers une étude bibliographique, un état des connaissances et des pratiques sur les systèmes d'analyse des activités des personnes âgées. Ensuite, il détaille l'étape de conception du système de surveillance retenu et selon une approche fonctionnelle présente l'architecture matérielle et logicielle mise en oeuvre pour répondre aux spécifications établies. Deux projets sont issus de ce travail :  Le projet Homecare qui vise à expérimenter et à qualifier, au niveau opérationnel, un système complet de Télésurveillance pour les personnes âgées atteintes de la maladie d'Alzheimer.  Le projet BéA qui est plutôt orienté sur la surveillance " outdoor " pour des personnes valides mais fragiles : Notre contribution a concerné la mise en place d'une architecture système qui intègre un algorithme auto-adaptatif de détection et de modélisation des déambulations par tranche horaire. Enfin, les pistes d'un modèle économique qui définit les options offertes, aujourd'hui, au déploiement de ce type de systèmes sont discutées.
100

Méthodes pour l'analyse des champs profonds extragalactiques MUSE : démélange et fusion de données hyperspectrales ;détection de sources étendues par inférence à grande échelle / Methods for the analysis of extragalactic MUSE deep fields : hyperspectral unmixing and data fusion;detection of extented sources with large-scale inference

Bacher, Raphael 08 November 2017 (has links)
Ces travaux se placent dans le contexte de l'étude des champs profonds hyperspectraux produits par l'instrument d'observation céleste MUSE. Ces données permettent de sonder l'Univers lointain et d'étudier les propriétés physiques et chimiques des premières structures galactiques et extra-galactiques. La première problématique abordée dans cette thèse est l'attribution d'une signature spectrale pour chaque source galactique. MUSE étant un instrument au sol, la turbulence atmosphérique dégrade fortement le pouvoir de résolution spatiale de l'instrument, ce qui génère des situations de mélange spectral pour un grand nombre de sources. Pour lever cette limitation, des approches de fusion de données, s'appuyant sur les données complémentaires du télescope spatial Hubble et d'un modèle de mélange linéaire, sont proposées, permettant la séparation spectrale des sources du champ. Le second objectif de cette thèse est la détection du Circum-Galactic Medium (CGM). Le CGM, milieu gazeux s'étendant autour de certaines galaxies, se caractérise par une signature spatialement diffuse et de faible intensité spectrale. Une méthode de détection de cette signature par test d'hypothèses est développée, basée sur une stratégie de max-test sur un dictionnaire et un apprentissage des statistiques de test sur les données. Cette méthode est ensuite étendue pour prendre en compte la structure spatiale des sources et ainsi améliorer la puissance de détection tout en conservant un contrôle global des erreurs. Les codes développés sont intégrés dans la bibliothèque logicielle du consortium MUSE afin d'être utilisables par l'ensemble de la communauté. De plus, si ces travaux sont particulièrement adaptés aux données MUSE, ils peuvent être étendus à d'autres applications dans les domaines de la séparation de sources et de la détection de sources faibles et étendues. / This work takes place in the context of the study of hyperspectral deep fields produced by the European 3D spectrograph MUSE. These fields allow to explore the young remote Universe and to study the physical and chemical properties of the first galactical and extra-galactical structures.The first part of the thesis deals with the estimation of a spectral signature for each galaxy. As MUSE is a terrestrial instrument, the atmospheric turbulences strongly degrades the spatial resolution power of the instrument thus generating spectral mixing of multiple sources. To remove this issue, data fusion approaches, based on a linear mixing model and complementary data from the Hubble Space Telescope are proposed, allowing the spectral separation of the sources.The second goal of this thesis is to detect the Circum-Galactic Medium (CGM). This CGM, which is formed of clouds of gas surrounding some galaxies, is characterized by a spatially extended faint spectral signature. To detect this kind of signal, an hypothesis testing approach is proposed, based on a max-test strategy on a dictionary. The test statistics is learned on the data. This method is then extended to better take into account the spatial structure of the targets, thus improving the detection power, while still ensuring global error control.All these developments are integrated in the software library of the MUSE consortium in order to be used by the astrophysical community.Moreover, these works can easily be extended beyond MUSE data to other application fields that need faint extended source detection and source separation methods.

Page generated in 0.0645 seconds