• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Visualisation Scientifique en médecine.<br />Application à la visualisation de l'anatomie et à la visualisation en épileptologie clinique

Dillenseger, Jean-Louis 17 June 2003 (has links) (PDF)
En médecine, le rôle de l'image est primordial. Depuis la renaissance, l'image a été un des vecteurs principaux de la transmission du savoir. Plus récemment, l'essor des techniques d'imageries tridimensionnelles n'a fait qu'étendre l'importance de l'image à la plupart des disciplines et des procédures médicales. Tout naturellement donc, la médecine a représenté un des domaines d'application privilégiés de la visualisation scientifique. Mes travaux de recherche s'inscrivent directement dans cette discipline de la visualisation scientifique et se présentent sous la forme de solutions de représentations originales apportées et associées à certaines problématiques médicales.<br />Pour cela, une réflexion sur l'outil de visualisation a été menée afin de proposer un cadre bien défini qui puisse guider l'élaboration d'un outil de représentation répondant à une discipline et à une problématique particulière. Le point le plus original de cette réflexion concerne un essai de formalisation de l'évaluation de la performance des outils de visualisation.<br />Deux grands domaines d'application ont justement permis de démontrer la pertinence de ce cadre général de la visualisation :<br />- La visualisation générale de l'anatomie avec, dans un premier temps, la conception d'un outil générique de visualisation de données médicale, le lancer de rayons multifonctions. Cet outil a été ensuite étendu selon deux axes de recherche, d'une part l'intégration de modèles de connaissances dans la procédure de synthèse d'images et d'autre part, l'imagerie interventionnelle et plus particulièrement des applications en urologie.<br />- Les apports de la visualisation pour l'interprétation des données recueillies sur le patient épileptique et plus particulièrement l'élaboration d'outils complémentaires permettant une analyse progressive des mécanismes et structures impliqués dans la crise.
122

Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)

gomez, cecile 26 November 2004 (has links) (PDF)
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies à partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
123

Segmentation des images IRM multi-échos tridimensionnelles pour la détection des tumeurs cérébrales par la théorie de l'évidence

Capelle-Laizé, Anne-Sophie 03 December 2003 (has links) (PDF)
L'imagerie par résonance magnétique (IRM) est, aujourd'hui, un outil puissant permettant l'observation in vivo de l'anatomie cérébrale. Utilisée en routine clinique, la multiplicité des pondérations d'acquisition permet aux médecins d'accéder à une information riche, abondante, et donc particulièrement adaptée au diagnostic de tumeurs cérébrales.<br /> <br />Cette thèse porte sur la problématique de segmentation des images IRM cérébrales pour l'aide au diagnostic des tumeurs cérébrales. Il s'agit donc de développer des méthodes de segmentation précises et fiables permettant la localisation des tumeurs cérébrales, en particulier infiltrantes dont les frontières ne sont pas nettes.<br />L'approche de segmentation adoptée est une approche multi-échos - donc multi-sources - fondée sur la théorie de l'évidence (ou théorie de Dempster-Shafer) apte à gérer l'incertitude des données à traiter et l'aspect multi-sources des informations manipulées. Dans un premier temps, nous nous attachons à montrer l'aptitude de la théorie de l'évidence à traiter les informations imprécises et incertaines que sont les images IRM au travers d'une démarche de type reconnaissance des formes crédibiliste. Dans un second temps, nous proposons une méthode d'intégration d'informations contextuelles fondée sur une combinaison pondérée de fonctions de croyance. La méthode de segmentation ainsi définie est appliquée à différents volumes cérébraux permettant une détection des zones tumorales. Des comparaisons avec des segmentations menées par des experts cliniciens et des méthodes de la littérature montrent l'intérêt des outils méthodologiques proposés à définir les volumes tumoraux recherchés. Enfin, nous nous sommes intéressées au conflit généré par le processus d'intégration des informations contextuelles. Nous montrons que le conflit est une information à part entière, représentative de la position des frontières entre les différentes structures anatomiques de la scène observée (le cerveau). Cette information frontière peut être utilisée en coopération avec la segmentation région initialement obtenue permettant ainsi d'obtenir un processus de segmentation complet reposant sur une approche de type "régions" et une approche de type "contours"
124

Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)

Gomez, Cécile 26 November 2004 (has links) (PDF)
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies ' partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
125

Reconstitution de la parole par imagerie ultrasonore et vidéo de l'appareil vocal : vers une communication parlée silencieuse

Hueber, Thomas 09 December 2009 (has links) (PDF)
L'objectif poursuivi dans ce travail de thèse est la réalisation d'un dispositif capable d'interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la " communication parlée silencieuse ". Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d'une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d'autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d'imagerie pour capturer l'activité de l'appareil vocal pendant " l'articulation silencieuse " : l'imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d'un signal de parole " acoustique ", uniquement à partir d'un flux de données " visuelles " (images ultrasonores et vidéo). Cette conversion qualifiée ici de " visuo-acoustique ", s'effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l'acquisition des données audiovisuelles, leur caractérisation, l'inférence d'une cible acoustique à partir de l'observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d'acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l'utilisation combinée de deux capteurs inertiaux a tout d'abord été conçu. Un système permettant l'enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l'utilisation de la transformée en cosinus discrète, la seconde, sur l'analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l'inférence des paramètres acoustiques, qualifiée de " directe ", est basée sur la construction d'une " fonction de conversion " à l'aide d'un réseau de neurones et d'un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois " d'indirecte ", une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l'introduction de connaissances linguistiques a priori sur la séquence observée. Elle s'appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d'unités ; la seconde utilise la technique dite de " synthèse par MMC ". Pour permettre notamment la réalisation d'adaptations prosodiques, ces deux méthodes de synthèse s'appuient sur une description paramétrique du signal de parole du type "Harmonique plus Bruit" (HNM).
126

Méthodes d'identification, d'aide au diagnostic et de planification utilisant de l'imagerie multi-modalité pour les thérapies focales du cancer de la prostate.

Makni, Nasr 13 December 2010 (has links) (PDF)
Le cancer de la prostate est le premier cancer chez l'homme de plus de 50ans dans les pays industrialisés. Les pratiques diagnostiques et les options thérapeutiques n'ont cessé d'évoluer et les récents progrès de l'imagerie de la prostate rendent possibles la détection de tumeurs de petite taille et le guidage de traitements ciblés dont le but est de minimiser la morbidité de la thérapie. Nous proposons, dans cette thèse, un ensemble de méthodes et de traitements automatisés de données d'imagerie médicale, dans le but d'assister et de guider le praticien dans la prise de décision diagnostique et le geste thérapeutique, pour les traitements focalisés par laser du cancer de la prostate. Dans un premier temps, des méthodes de segmentation et de détection assistées par ordinateur ont développées pour répondre aux problématiques liées à la phase de diagnostic guidé par l'Imagerie à Résonance Magnétique (IRM). D'abord, une nouvelle approche combinant le formalisme des champs de Markov et un modèle statistique de forme est proposée pour l'identification de la prostate en IRM, et l'extraction de ses contours en trois dimensions. Ensuite, nous proposons une méthode pour la segmentation du volume IRM de la glande en zones périphérique et centrale. Cette méthode exploite les techniques d'IRM multi-paramétrique, et s'appuie sur la théorie des fonctions de croyance, ainsi que la modélisation d'un a priori morphologique comme source d'information supplémentaire. Enfin,la détection des tumeurs de la zone périphérique de la glande est abordée en expérimentant un ensemble d'attributs de texture extraits de la géométrie fractale, dans des schémas de classification supervisée et non supervisée. Les performances et particularités de chacune de ces approches sont étudiées et comparées. La deuxième partie de cette thèse s'intéresse au guidage du geste thérapeutique lors des thérapies d'ablation focalisée par laser des tumeurs prostatiques. Une méthode de recalage non rigide est proposée pour fusionner les données de planification et d'imagerie pré-opératoire à l'échographie de guidage per-opératoire. L'originalité de cette méthode réside dans l'utilisation d'un algorithme robuste aux conditions d'initialisation qui permet de minimiser l'intervention de l'opérateur. Nous expérimentons et évaluons nos algorithmes en utilisant des données simulées et des fantômes physiques afin de comparer à une vérité terrain connue. Des examens de patients, analysés par des experts, sont aussi utilisés pour des évaluations dans des conditions réelles, tout en tenant compte de la variabilité inter-observateurs de ces interprétations. Les résultats obtenus montrent que les méthodes développées sont suffisamment précises, rapides et robustes pour pouvoir être utilisées dans un contexte clinique. Ces outils prouvent leur aptitude à offrir un gain en temps d'exécution et en reproductibilité des décisions diagnostiques et thérapeutiques basées sur les modalités d'imagerie de la prostate. Des validations multicentriques et des transferts à l'industrie devraient à l'avenir concrétiser les retombées cliniques de ces travaux qui pourront alors contribuer à l'amélioration des gestes diagnostiques et thérapeutiques du cancer de la prostate.
127

Localisation garantie d'automobiles. Contribution aux techniques de satisfaction de contraintes sur les intervalles

Gning, El Hadji Amadou 17 March 2006 (has links) (PDF)
L'objectif de cette thèse est d'appliquer, aux problèmes de fusion de données, les techniques de résolution des CSP (Problèmes de Satisfaction de Contraintes) sur des pavés réels avec comme application réelle la localisation dynamique d'un véhicule à l'aide des capteurs odométriques, d'un gyromètre de lacet et d'un GPS différentiel.<br />Après avoir mené cette étude et tiré des conclusions, deux contributions sont faites pour améliorer les techniques de satisfaction de contraintes utilisées. Dans un premier temps, la notion de "domaine de consistance" est introduite. Les propriétés qui lui sont associées permettent de résoudre de manière formelle des exemples de cycles. Grâce à cet outil, on améliore la précision des pavés obtenus tout en ayant une information précieuse du temps de calcul a priori. Dans un second temps, l'algorithme de propagation connu sous le nom de FALL/CLIMB permettant de résoudre de façon optimale un CSP ayant une représentation graphique sous forme de graphe est généralisé aux CSP vectorisés appelés "VCSP".
128

Inférence bayésienne pour la détermination et la<br />sélection de modèles stochastiques

Caron, Francois 10 November 2006 (has links) (PDF)
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples. <br />On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
129

Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation

Mangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
130

Choix d'un associateur 2-D pour le balayage multiple et optimisation de l'estimation des pistes

Moreau, Francis January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Page generated in 0.0544 seconds