• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Contribution à la vérification multi-modale de l'identité en utilisant la fusion de décisions

Verlinde, Patrick 17 September 1999 (has links) (PDF)
La vérification automatique de l'identité d'une personne est utilisée dans beaucoup d'applications telles que l'accès à des services automatisés et à des endroits protégés (banques,....). Un facteur important, qui limite le développement de ces services, est la nécessité de diminuer la probabilité d'intrusion par des imposteurs (ce qu'on appelle le taux de fausses acceptations: FA), tout en minimisant la probabilité d'être rejeté pour les clients (ce qu'on appelle le taux de faux réjets: FR). Une possibilité pour relever ce défi est d'utiliser plusieurs "procédés d'identification" (souvent appelés modalités) différents, et de les combiner ou de les fusionner. L'utilisation d'un "mot de passe" ou d'une carte avec numéro d'identification personnel (PIN) est une modalité de vérification bien connue et très populaire. Malheureusement, on peut oublier ce PIN ou le "perdre" et, en plus, la seule chose que l'on vérifie vraiment est la connaissance du bon numéro. Une autre approche consiste à utiliser des modalités dites biométriques, qui se basent sur la mesure de certaines caractéristiques biologiques de personnes (empreintes digitales, visage, parole,....). L'être humain utilise d'ailleurs la vision et le signal vocal, lorsqu'il est confronté à ce même problème de reconnaissance. L'avantage intrinsèque de ces modalités biométriques est qu'elles sont "liées" à l'individu (on ne peut pas les perdre). Parmi les modalités biométriques les plus utilisées, on trouve tout d'abord le signal vocal (vérification du locuteur). Cette méthode de vérification est déjà bien connue, mais souffre de quelques désavantages majeurs. Un de ces désavantages est la variabilité dans le temps des caractéristiques d'un même locuteur (variabilité intra-locuteur). Pour intégrer cette variabilité fondamentale et pour assurer la robustesse des méthodes traditionnelles de vérification de locuteur, il faut obligatoirement effectuer des séances d'entraînement relativement longues et répetées dans le temps, ce qui ne rend pas cette méthode très conviviale. Si on diminue la durée ou la fréquence des séances d'entraînement, on dégrade ipso facto les performances de ce genre de méthodes. Un autre désavantage est le risque d'un enregistrement du signal de parole à des fins d'imposture. Une des possibilités attractives pour amméliorer les performances des méthodes de vérification d'identité à faible niveau d'entraînement, tout en préservant la convivialité, est de ne pas se baser uniquement sur la parole, mais d'y inclure également d'autres informations (modalités), de préférence indépendantes (afin de maximaliser l'apport d'information). Une des autres modalités possibles est sans aucun doute la vision. L'identification basée sur le visage peut évidemment utiliser des caractéristiques biométriques aussi bien de face (distance entre les yeux et la bouche,etc....) que de profil. La vue de face permet en outre de localiser les lèvres et de suivre leurs mouvements, et donc d'utiliser la synchronisation entre les lèvres et la parole. Pour améliorer les résultats obtenus par une seule modalité, on peut combiner plusieurs d'entre elles, ce qui implique l'application de techniques de fusion de données. Ces techniques sont souvent classées dans trois catégories différentes, basées respectivement sur l'utilisation de modèles physiques, de procédés d'inférence et de méthodes cognitives. Les modèles physiques utilisent la simulation et l'estimation. Les techniques d'inférence comprennent entre autres les méthodes statistiques (Bayes, Dempster-Shafer), les méthodes de clustering, les réseaux de neurones, les méthodes par vote et les méthodes de reconnaissance de formes. Enfin les stratégies cognitives se regroupent surtout autour de la logique floue et des systèmes experts. L'objet de cette thèse est d'explorer différentes techniques de fusion de données en mettant l'accent sur les techniques d'inférence.
82

Système embarqué temps réel de localisation et de modélisation 3D par fusion multi-capteur

Abuhadrous, Iyad 01 1900 (has links) (PDF)
Cette étude va se focaliser sur trois aspects. Dans un premier temps, un effort sera porté sur l'aspect "localisation précise" du véhicule en mouvement. Pour cela, il est nécessaire de se pencher sur l'intégration et le traitement de l'information issue de systèmes hétérogènes de navigation: GPS et centrale inertielle (INS) auxquels sera rajoutée ensuite l'odométrie. La raison de cette intégration est d'exploiter les avantages de chacun des systèmes utilisés. L'intégration utilise un filtrage numérique pour procéder à une compensation des erreurs en position, vitesse, et en attitude issues de chaque capteur. L'accent n'a pas seulement été mis sur l'intégration, mais aussi sur les notions de précision des résultats. Dans un deuxième temps, nous allons nous intéresser à la fois à la validation quantitative et qualitative des résultats et à l'élaboration d'une application exploitant notre travail. Les erreurs du système sont comparées avec une trajectoire de référence. Nous avons choisi de réaliser un système de numérisation tridimensionnelle de l'environnement couplé à un système de modélisation adapté au type d'environnement. L'étude se penchera sur le capteur d'acquisition de données télémétriques et son intégration à bord du véhicule. Un intérêt particulier est porté sur la qualité et les imprécisions des données retournées par le télémètre. L'acquisition des données se fera au vol et pendant le déplacement du véhicule. Enfin, le modèle obtenu sera exploité, de deux manières: la constitution d'un modèle géométrique et topologique précis puis l'extraction d'informations sémantiques du modèle (extraction de la route ou des obstacles fixes, identifications d'amers, caractérisation de la route, etc.).
83

Recherche d'Information Collaborative

Taher, Razan 05 March 2004 (has links) (PDF)
L'arrivée « World Wide Web » et la grande utilisation d'Internet ont ouvert de nouvelles perspectives pour la diffusion et le partage d'information. Nous présentons dans cette thèse une approche collaborative pour la recherche d'information. Nous définissons un environnement collaboratif dédié à un groupe d'utilisateurs désirant effectuer ensemble des recherches d'information sur un sujet commun. Cet environnement aide l'utilisateur à obtenir une meilleure qualité de l'information, et à « bénéficier » efficacement des expériences des autres membres du groupe. Différents contextes dans lesquels le soutien s'avère nécessaire sont analysés : l'aide à la formulation de requête, l'évaluation de sa recherche par rapport aux autres membres du groupe et une vision globale des résultats obtenus. Nous avons conçu et validé expérimentalement un modèle de soutien souple et adapté à la typologie de l'utilisateur pris individuellement et à la typologie du groupe d'utilisateur pris dans son ensemble. Le soutien est aussi personnalisé selon ses désirs et souhaits exprimés au moyen, entre autres, de critères de personnalisation de soutien.
84

Approche autonome pour la localisation et la surveillance de l'intégrité d'un véhicule automobile en environnement complexe

Le Marchand, Olivier 02 June 2010 (has links) (PDF)
Les nouvelles applications automobiles basées sur localisation rendent nécessaire l'introduction du concept d'intégrité, tel que développé dans le domaine aéronautique. Cette thèse s'intéresse à l'amélioration de l'exactitude de la localisation et à la mise en place de mécanismes d'intégrité pour les véhicules automobiles de série, en particulier dans les environnements urbains. L'approche aéronautique de l'intégrité n'utilise que les mesures GPS et se décompose en deux étapes : la détection et l'exclusion des défauts (FDE), puis le calcul de niveau de protection, qui délimite une zone de localisation sécurisée. Or, une série d'expériences a confirmé que les environnements urbains offrent peu de redondance et des défauts multiples, ce qui pénalise fortement l'étape de FDE. Cette thèse développe deux approches basées sur l'hypothèse que l'introduction des nouvelles mesures redondantes issues des capteurs proprioceptifs du véhicule (odomètres, capteurs de vitesse de lacet, d'angle au volant...) compense ces problèmes inhérents aux environnements urbains. La première approche propose de nouveaux algorithmes de FDE qui exploitent des informations issues d'un filtrage dynamique ainsi que les mesures de Doppler. Les performances, évaluées sur des données réelles à travers quatre cas d'usage, démontrent un gain conséquent en conditions urbaines. La seconde approche se base sur l'estimation de la trajectoire sur un horizon de temps : ce formalisme permet d'introduire des informations dynamiques (positions successives, mesures proprioceptives) dans les algorithmes standards d'intégrité, qui sont à la base statiques. Les niveaux de protection calculés sont diminués d'un facteur trois.
85

Réalité augmentée pour l'aide à la navigation. SIGMA : Système d'information Géographique Maritime Augmentée

Hugues, Olivier 12 December 2011 (has links) (PDF)
Ces travaux de thèse se situent au croisement de plusieurs domaines que sont la Réalité Augmentée, la Réalité Virtuelle, les systèmes d'information géographique, le génie logiciel, le traitement d'image et les sciences humaines et sociales. Le premier axe de ce mémoire concerne les apports relatifs à l'amélioration des connaissances du domaine de la réalité augmentée par une approche centrée utilisateur. Nous proposons, basés sur nos définitions et sur les travaux en réalité virtuelle, notre modèle d'interaction et d'immersion en réalité augmentée nommé 3i2RA. L'axe suivant permet de préciser la problématique liée à l'utilisation d'un système d'aide à la navigation par un état de l'art spécifique aux systèmes d'information géographique. Nous présentons dans ce chapitre les systèmes d'information géographique particulièrement destinés à l'aide à la navigation. Le troisième axe présente nos apports méthodologiques concernant la conception d'un outil d'aide à la navigation. L'objectif est de proposer une démarche permettant d'interfacer la modélisation des activités des navigateurs et une méthode agile de développement d'un logiciel. Enfin, le dernier axe présente nos apports technologiques mis en œuvre afin de réaliser les fonctionnalités demandées.
86

Perception multimodale pour un robot mobile en milieu marin

Guo, Yan 04 October 2011 (has links) (PDF)
Dans le domaine de la robotique, les véhicules autonomes de surface en milieu marin jouent un rôle important. Ils permettent de réaliser des opérations dangereuses, comme la surveillance d'environnements marins ou encore des relevés hydrographiques. Avant d'envisager le déplacement d'un véhicule autonome de surface, il est nécessaire d'assurer sa perception de l'environnement. Elle consiste à observer, localiser et éviter les obstacles. A cause des contraintes technologiques, la complexité de l'environnement naturel, et de la diversité des situations rencontrées, il est difficile d'effectuer une plate-forme parfaitement autonome et adaptée à des applications variées. Cette thèse s'inscrit dans le cadre du projet ASAROME (Autonomous SAiling Robot for Oceanographic MEasurements), un projet de réalisation d'un voilier autonome pour des missions de mesures et d'observations de longues durées. Dans un premier temps, nous avons conçu une plate-forme de perception composée de plusieurs types de capteurs : hydrophones, caméra panoramique, centrale inertielle et sonar. A partir des signaux acquis pendant des campagnes de test, nous avons développé des méthodes de traitement du signal. Elles consistent à analyser et traiter des signaux sonores sous-marins et des images panoramiques pour la reconnaissance d'objets, la détection et la localisation d'obstacles. Pour améliorer la perception des obstacles, des méthodes de fusion de données multi-capteurs ont été développées. L'ensemble des algorithmes ont été validés expérimentalement, en lac puis en mer. Ce travail n'est que le premier pas vers la réalisation d'un robot autonome en milieu marin capable de réaliser des missions complexes de longue durée, mais il montre sa faisabilité par le développement de capacités de perception adaptées.
87

Développement d'une approche SIG pour l'intégration de données Terre/Mer

Mascret, Ariane 15 March 2010 (has links) (PDF)
Le domaine maritime littoral constitue un milieu fragile, placé à l'interface Terre/Mer où s'exercent de nombreuses pressions issues des milieux terrestres, maritimes et atmosphériques. Les approches globales de Gestion Intégrée des Zones Côtières (GIZC) ont pour but de pallier les lacunes des politiques précédentes au niveau des interactions simultanées des différents acteurs du littoral. Cette approche requiert un Modèle Numérique de Terrain (MNT) littoral continu ainsi que des données maritimes et terrestres cohérentes entre elles. En raison d'acquisitions ou de productions différentes pour les MNT terrestres et maritimes, l'ensemble du relief n'est pas traité de manière ni homogène ni continue. De plus les techniques d'intégration des MNT actuelles entraînent des lissages des reliefs, voire la perte des éléments caractéristiques. Des outils et une nouvelle méthodologie d'intégration de MNT ont donc été définis. Les outils utilisent la distance de Fréchet pour calculer une distance maximale d'écartement entre les points homologues de deux lignes. La valeur de cette distance donne une mesure de ressemblance de forme qui sert de base à leur appariement ultérieur. La méthodologie de fusion proposée dans cette thèse se veut générique tout en s'appuyant sur les lignes caractéristiques spécifiques du paysage. Elle effectue un enchaînement de traitements répartis en trois étapes majeures : 1) transformations cartographiques et analyse des zones de recouvrement ; 2) segmentation et extraction de lignes caractéristiques ; 3) appariement et fusion à l'aide de déformations élastiques. Ces outils d'intégration ont été testés sur des données réelles en 2D pour la comparaison du trait de côte, puis validés sur des MNT simulés 3D.
88

Exploitation du conflit entre capteurs pour la gestion d'un système complexe multi-capteurs

Roquel, Arnaud 12 December 2012 (has links) (PDF)
Les systèmes complexes intègrent aujourd'hui de nombreux capteurs physiques ou logiques qui facilitent la prise de décisions optimales en fonction de l'exosystème et de l'endosystème. Ces capteurs sont des sources de données, qui délivrent des informations partielles, imprécises et/ou incertaines, partiellement complémentaires et partiellement redondantes. La théorie des fonctions de croyances offre un cadre formel adapté à la représentation de l'imprécision et de l'incertitude des informations. Cependant, même en modélisant l'ignorance et l'imprécision des sources, l'absence de conflit entre les sources n'est toutefois pas garantie.Dans la théorie des fonctions de croyances, le désaccord entre sources est classiquement mesuré en termes de conflit 'Dempsterien', celui résultant de la combinaison conjonctive des sources, ou de dis-similarité ou distances entre fonctions de croyance. Toutes ces mesures sont globales, et ne donnent pas d'information directe sur la source du conflit.La contribution principale de cette thèse est de décomposer le conflit Dempsterien dans le but d'analyser celui-ci. Nous proposons une décomposition par rapport aux différentes hypothèses simples ou composées, issues de l'espace de discernement. Nous montrons l'unicité de cette décomposition et explicitons l'algorithme de calcul, à partir de la décomposition canonique de la fonction de croyance. Nous interprétons alors chacun des termes de la décomposition comme la contribution au conflit global, apportée par chaque hypothèse simple ou composée. Cette décomposition s'applique à l'analyse du confit intra-source (i.e. le conflit inhérent à la source) ou du conflit inter-sources (i.e. le conflit qui apparait lors de la fusion des sources). Nous illustrons sur des exemples jouets comment l'observation de la répartition du conflit par rapport aux différentes hypothèses peut permettre l'identification de l'origine de certains conflits. Trois applications de notre mesure sont ensuite développées, afin d'illustrer son utilité.La première application concerne la détection préventive de chute un véhicule type bicycle (moto). Les sources de données sont les accélérations mesurées sur les deux roues. Un conflit entre ces mesures, supposées hautement redondantes, voire corrélées, sera alors interprété comme un début de chute. Nous montrons que la décomposition du conflit fournit un indicateur de chute plus fin et précoce que la mesure du conflit Dempsterien.La deuxième application concerne la localisation de véhicule, problème essentiel pour l'autonomie des véhicules d'exploration comme des robots de service. Les sources sont des sorties d'algorithmes d'estimation de mouvement du véhicule. Nous montrons d'abord qu'estimer dynamiquement la fiabilité des sources permet d'améliorer la fusion. Nous montrons ensuite que la décomposition du conflit permet une mesure plus fine de la fiabilité de la fusion que la mesure du conflit Dempsterien. En cas de conflit détecté, l'estimation de la fiabilité de chaque source est ensuite fondée sur la vérification (ou non) d'une hypothèse de régularité temporelle, vérification elle-même basée sur une mesure de distance locale aux hypothèses simples ou composées. La troisième application propose une généralisation de la combinaison hybride de Dubois Prade au cas de la combinaison à N sources. Notre mesure calculant le conflit partiel associé à chaque sous-ensemble d'hypothèses, en nous inspirant du principe de la règle de combinaison hybride, nous redistribuons la masse de ce conflit partiel à la disjonction des hypothèses du sous-ensemble. La décomposition du conflit permet d'identifier de manière unique les différents sous-ensembles d'hypothèses contribuant au conflit.En conclusion, les travaux ont montré que l'information issue de la mesure du conflit, et de sa décomposition, pouvait (devait) être considérée comme une information à part entière, permettant notamment la gestion des sources et des croyances à fusionner.
89

Approche crédibiliste pour la fusion multi capteurs décentralisée

André, Cyrille 10 December 2013 (has links) (PDF)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants.
90

Analyse et conception d'un système de rééducation de membres inférieurs reposant sur un robot parallèle à câbles

Harshe, Mandar 21 December 2012 (has links) (PDF)
L'analyse de la marche et la mesure du déplacements des articulations humaines ont été largement étudiées. Les artefacts de tissus "mous" sont une source fréquente d'erreur pour la plupart des méthodes de mesure utilisées. La procédure standard en analyse de la marche consiste à utiliser une combinaison de mesures pour l'estimation efficace des angles articulaires et de la position des segments du corps humain. Ce travail propose le développement d'un système d'analyse de la marche reposant sur un robot parallèle à câbles équipé de plusieurs capteurs mesurant spécifiquement les déplacements du genou. Nous considérons le cas général pour lequel les articulations humaines se comportent comme des joints à 6 degrés de liberté reliant deux segments du corps. Afin de déterminer la position et l'orientation de ces segments, 14 câbles y sont attachés, ce qui permet de considérer ces segments comme les organes effecteurs de robots parallèles. Leur position peut alors être calculée à partir de la mesure de la longueur des câbles. Cependant, ces mesures sont entachées de bruit à cause des artefacts de tissus "mous". Afin d'améliorer la précision des résultats, le système propose aussi l'utilisation d'autres capteurs de nature différente : plusieurs capteurs inertiels (avec accéléromètres et gyroscopes), un système de motion capture, des capteurs de pression plantaire, des capteurs de distance (IR et résistance variable) et des capteurs de force pour mesurer la contraction musculaire. Plusieurs approches globales sont disponibles pour l'analyse du genou lors de la marche. Les choix technologiques effectués impactent directement sur la conception de notre système et imposent le développement de matériel spécifique pour mener à bien les mesures, tel que le collier flexible utilisé d'une part pour permettre l'attache des câbles sur les segments du patient et d'autres part pour supporter les capteurs supplémentaires. Nous traitons le collier comme une chaîne cinématique sérielle et nous proposons une méthode d'étalonnage qui ne nécessite pas d'utiliser les mesures angulaires des articulations contrairement aux méthodes existantes. Nous décrivons le protocole expérimental ainsi que les méthodes utilisées pour synchroniser les données issues de plusieurs ordinateurs. Les données sont ensuite fusionnées pour obtenir la pose du collier et donc celle des segments du patient. Enfin, ce travail permet d'identifier les modifications à apporter au système pour une meilleure analyse de la marche, ce qui pourra servir de base à un système de rééducation complet.

Page generated in 0.0718 seconds