• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Analyse en ondelettes M-bandes en arbre dual; application à la restauration d'images

Chaux, Caroline 13 December 2006 (has links) (PDF)
Cette thèse porte sur les décompositions en ondelettes M-bandes en arbre dual ainsi que sur leur application à l'analyse et la restauration d'images. Ces décompositions permettent d'obtenir une analyse multi-échelles, directionnelle et locale des images. Elles s'inscrivent donc dans la perspective de travaux récents visant à mieux représenter les informations géométriques (textures, contours) et les préserver lors de traitements. Ce travail s'appuie sur les travaux antérieurs de N. Kingsbury et I. Selesnick portant sur la construction de décompositions en ondelettes formant des paires de Hilbert (approchées). Ces auteurs ont établi divers résultats concernant le cas dyadique et l'une de nos contributions a été de montrer qu'il était possible de généraliser leurs conclusions et de montrer de nouveaux résultats dans le cas M-bandes. Les représentations proposées présentent de nombreux avantages notamment en termes d'invariance par translation de l'analyse et de sélectivité directionnelle. Nous avons établi les conditions que doivent satisfaire les bancs de filtres en arbre dual servant à l'analyse et à la synthèse des signaux traités. Nous avons également étudié les pré-traitements qu'il est nécessaire d'appliquer à des données discrètes. Ces décompositions introduisant typiquement une redondance d'un facteur 2 (dans le cas réel, et de 4 dans le cas complexe), elles constituent des trames à partir desquelles on peut calculer une reconstruction optimale. Ces nouvelles transformées ont finalement été généralisées aux cadres biorthogonal et complexe. Notre volonté d'appliquer ces outils d'analyse au débruitage de signaux nous a conduit à l'étude des propriétés statistiques des coefficients issus de la décomposition M-bandes en arbre dual d'un processus aléatoire stationnaire au sens large. Nous avons tout d'abord calculé les statistiques au second ordre de ces coefficients et nous avons étudié le rôle du post-traitement dans le calcul des corrélations. Quelques résultats asymptotiques concernant les corrélations d'un couple de coefficients primal/dual ont également été obtenus. Les inter-corrélations entre les ondelettes primale et duale jouant un rôle clé dans notre étude, nous en avons fourni des expressions exactes pour quelques familles d'ondelettes usuelles. Des simulations numériques nous ont aussi permis de valider nos résultats théoriques ainsi que d'évaluer la zone d'influence de la dépendance statistique induite. Pour démontrer l'efficacité de ces décompositions, nous avons été amenés à nous intéresser à deux types de problèmes : le débruitage et la déconvolution d'images. En ce qui concerne le débruitage, nous avons poursuivi deux buts principaux liés au cheminement de la thèse. Dans un premier temps, nous nous sommes attachés à montrer que la décomposition en arbre dual M-bandes apporte un gain significatif en terme de qualité, à la fois objective et subjective, par rapport à une décomposition en ondelettes classique, voire une décomposition dyadique en arbre dual. Dans un second temps, nous avons considéré le débruitage d'images multi-canaux pour lesquelles nous avons mis en place un estimateur statistique original reposant sur l'emploi du principe de Stein et permettant notamment de prendre en compte des voisinages quelconques (spatial, intercomposantes, inter-échelles, ...). Les problèmes de déconvolution d'images ont été appréhendés dans le cadre de méthodes variationnelles, en mettant en place un algorithme itératif, utilisant des outils récemment développés en analyse convexe. L'approche proposée permet de résoudre des problèmes inverses associés à des modèles probabilistes variés et elle est applicable à l'analyse M-bandes en arbre dual ainsi qu'à tout autre type de représentation à l'aide d'une trame.
72

Séparation de sources non linéaires dans le cas des mélanges convolutifs

Castella, Marc 20 December 2004 (has links) (PDF)
Ce travail concerne la séparation aveugle de sources dans le contexte des mélanges convolutifs. La problématique est traitée dans le cas de sources non linéaires, non i.i.d. et aborde l'étude de critères dénommés "fonctions de contraste" dont la maximisation permet la séparation d'un mélange de sources. Parmi les méthodes de séparation dont nous étudions les contrastes, celles dites conjointes reconstituent les sources simultanément, tandis que les méthodes dites séquentielles extraient les sources les unes après les autres. Une alternative et une amélioration de la méthode séquentielle dite de "déflation" sont présentées. Deux applications, l'une aux signaux de télécommunication CPM (continuous phase modulation) et l'autre aux images illustrent le potentiel des méthodes séquentielles. Partant d'un point de vue semi-aveugle, des contrastes quadratiques sont enfin proposés. Ils offrent, y compris dans le cas aveugle, des performances très satisfaisantes et une rapidité d'optimisation accrue.
73

Compensation du mouvement respiratoire en TEP/TDM à l'aide de la super-résolution.

Wallach, Daphné 14 October 2011 (has links) (PDF)
La tomographie par émission de positons (TEP) est une modalité d'imagerie fonctionnelle incontournable pour le diagnostic et le suivi thérapeutique en oncologie. De nouvelles applications telles que la radiothérapie guidée par l'imagerie fonctionnelle sont en cours d'investigation. Les images TEP souffrent toutefois d'une faible résolution spatiale, encore dégradée par les effets du mouvement respiratoire du patient dans le thorax et l'abdomen. La grande majorité des solutions proposées pour la correction de ce mouvement respiratoire reposent sur l'enregistrement du signal respiratoire pendant l'acquisition TEP et de la synchronisation de l'acquisition avec ce signal respiratoire. Les données peuvent ainsi être séparées selon la partie du cycle respiratoire pendant laquelle elles ont été acquises. Les données correspondant à une même position peuvent ensuite être sommées et reconstruites. Les images résultantes sont cependant de qualité réduite, car elles ne contiennent qu'une portion de l'information. Il est donc nécessaire de les combiner. Les solutions disponibles actuellement proposent de recaler et sommer les données synchronisées, avant, pendant, ou après leur reconstruction, ce qui produit une image sans mouvement de qualité proche de celle qui aurait pu être obtenue en l'absence de mouvement respiratoire. La super-résolution vise à améliorer la résolution d'une image appartenant à une séquence d'images représentant différentes vues de la même scène. Elle exploite le mouvement présent dans cette séquence afin d'obtenir une image d'une résolution supérieure à celle permise par le système d'imagerie et ne contenant pas de recouvrement de spectre. Le but de cette thèse est d'appliquer une telle technique pour compenser le mouvement respiratoire. Nous avons d'abord appliqué un algorithme de super-résolution déjà existant à une séquence d'images TEP synchronisées avec la respiration, ce qui représente une application inédite. Cette technique permet de corriger efficacement les effets du mouvement respiratoire. Les méthodes de correction du mouvement respiratoire sont souvent plus performantes lorsqu'elles sont incorporées à la reconstruction plutôt qu'appliquées aux images reconstruites. C'est pourquoi nous avons ensuite développé de nouveaux algorithmes de reconstruction TEP incorporant la super-résolution. Les images ainsi reconstruites sont de meilleure qualité que celles corrigées par super-résolution après reconstruction. Enfin, nous avons montré que la correction du mouvement respiratoire par super-résolution permet une précision accrue dans la planification du traitement par radiothérapie.
74

De la résolution numérique des EDP à l'extraction de caractéristiques linéiques dans les images : application à la détection multi-échelles d'un arbre vasculaire

Tremblais, Benoit 12 December 2002 (has links) (PDF)
Nos travaux ont été motivés par un problème pratique visant à étudier et à développer une méthode générale pour détecter les vaisseaux sanguins à partir de cinéangiographies. Il s'agit donc d'obtenir une bonne modélisation des vaisseaux, i.e. une caractér isation précise de leurs lignes centrales et de leurs diamètres. Une solution à cette problématique consiste à générer un espace multi-échelles qui grâce à ses différents niveaux de détails permet de traiter des artères de diamètres divers. Ces méthodes sont généralement mises en oeuvre en utilisant le formalisme des équations aux dérivées partielles (EDP) et celui de la géométrie différentielle. Les contributions de cette thèse sont multiples. Nous centrons tout d'abord nos travaux théoriques autour des traitements relatif s à la résolution des EDP en considérant ces traitements sous l'angle des méthodes itératives dites de recherche de point fixe. Ensuite, nous résolvons l'équation de la chaleur par une méthode de résolution à pas adaptatif originale, dite lambda-résolution. Ceci nous permet, en contrôlant la vitesse de convergence du processus, d'obtenir un filtre de diffusion isotrope, qui a la particularité de préserver les contours. Nous utilisons alors ce processus à des fins de débruitage et de segmentation d'images en niveaux de gris et couleur. Par ailleurs, nous introduisons une nouvelle EDP de rehaussement d'images, inspirée des filtres de choc et de la morphologie mathématique que nous couplons à l'analyse multi-échelles précédente de manière à obtenir un filtre de restauration d'images. Par la suite, la définition de courbures d'images vectorielles nous permet de proposer à la fois, une nouvelle {sc EDP} de lissage par courbure moyenne et une nouvelle méthode de détection des lignes centrales que nous appliquons sur des images couleur. Finalement, nous présentons une stratégie de détection multi-échelles des lignes centrales et des contours de l'arbre coronarien.
75

On the pertinence of a numerical transmission model for neural information

Tiganj, Zoran 08 November 2011 (has links) (PDF)
Dans cette thèse, nous utilisons un ensemble d'outils avancés de mathématiques et de méthodes de traitement du signal pour aborder trois problèmes importants en neuroscience: la détection de potentiels d'action (spikes), leur tri, et le codage neuronal. A partir d'enregistrements invasifs de l'activité de neurones, nous avons d'abord abordé la question de la détection de spikes. Les instants d'occurrence des spikes apparaissent (comme des irrégularités) de manière explicite dans les dérivées distributionnelles du signal neuronal. Le problème est alors posé en termes de détection et estimation conjointe de ces instants d'occurrence. En utilisant le calcul opérationnel, qui fournit un cadre commode pour manipuler des Dirac, nous caractérisons le temps d'occurrence d'un spike par une formule explicite. Après la détection nous abordons le problème du tri de spikes. Nous avons développé un algorithme simple pour des enregistrements multi-canaux. Il utilise une application itérative de l'algorithme ICA et une technique de déflation dans deux boucles imbriquées. Dans chaque itération de la boucle externe, l'activité d'un neurone est ciblée, puis isolée et ensuite élaguée des enregistrements. La boucle interne met en œuvre une séquence d'applications de ICA et de détection afin de supprimer tout ce qui ne relève pas du neurone cible. Enfin, nous menons une discussion sur les propriétés du code neuronal. Nous examinons l'hypothèse d'un code reposant sur un alphabet fini. Cette hypothèse correspond à un schéma de modulation PPM qui est déjà suggéré par le codage temporel et la présence de jitter.
76

Comparaison des outils optique et radar en polarimétrie bistatique

Trouvé, Nicolas 22 November 2011 (has links) (PDF)
L'information polarimétrique des ondes électromagnétiques est fondamentalement semblable pour les micros ondes (radar), l'infrarouge et le visible (optique). Cependant, les échelles et les moyens de mesures impliqués varient très fortement ce qui explique que les divers outils développés (étalonnage, configuration géométrique, filtrage du bruit) divergent entre les différentes communautés. Ces divergences s'illustrent notamment sur les points suivants : - La géométrie d'acquisition, classiquement bistatique en optique et majoritairement monostatique en radar. - La nature de la mesure, cohérente pour le radar (intensité et phase) et en énergie pour l'optique ; quand l'optique mesure directement des grandeurs quadratiques du champ électrique, en radar il faut effectuer des estimations statistiques pour obtenir ces mêmes grandeurs. - Les traitements : en radar ce sont les décompositions polarimétriques en sommes matricielles qui sont les plus populaires, en optique les traitements sont le plus souvent multiplicatifs. Cette thèse exploite l'utilisation transverse des outils appartenant à ces deux mondes afin d'améliorer notre compréhension globale de la polarimétrie et son exploitation. Le travail présenté suit l'organisation logique d'un protocole de la mesure à l'exploitation. Nous avons d'abord adapté une méthode de calibration inspirée de l'optique au cas du radar bistatique. Ensuite nous avons analysé l'impact des géométries bistatiques et des choix de référence, pour proposer le choix du plan de diffusion dans l'analyse des images radar. Puis nous nous sommes penchés sur l'estimation de la matrice de covariance polarimétrique dans le cadre du radar. Ceci a permis de proposer une méthode originale de segmentation des images SAR ainsi que de nouveaux types de détecteurs. Enfin, nous présentons les différents "traitements polarimétriques" à proprement parler, et diverses applications auxquels ces traitements peuvent servir : caractérisation de milieux dépolarisants en optique (tissus) ou radar (forêt), détection de cibles déterministes, aide à la restitution 3D.
77

Emission laser impulsionnelle et traitements temps-fréquence en vibrométrie par lidar à détection cohérente

Totems, Julien 15 February 2011 (has links) (PDF)
L'utilisation de lasers pulsés ouvre la voie à de nouvelles fonctionnalités et à une compacité accrue des systèmes lidars pour la mesure de vibration à distance. Or des bruits de phase et d'amplitude affectent le signal lidar, diminuant particulièrement les performances du régime impulsionnel à multiplets, concept par ailleurs prometteur pour la mesure à longue portée. Ces travaux portent d'abord sur la caractérisation expérimentale de ces bruits afin de les modéliser, en particulier l'effet de la turbulence atmosphérique. Puis nous cherchons à optimiser les formes d'ondes et le traitement du signal en fonction de la vibration et de la statistique de bruit. Nous proposons une méthode originale basée sur un estimateur du maximum de vraisemblance de la fréquence Doppler, associé à une extraction à partir de la représentation temps-fréquence du signal. L'apport de cette approche est constaté par la simulation et l'expérience, en comparant les performances de plusieurs régimes d'émission.
78

Analyse des champs spatiaux par utilisation de la télédétection : estimation de la durée quotidienne d'insolation en France à l'aide d'images du satellite Météosat et de mesures sol

Galle, Sylvie 21 May 1987 (has links) (PDF)
L'insolation est étudiée, à l'échelle synoptique (la France) à l'aide d'un ensemble de mesures de la durée quotidienne d'insolation réalisées au sol et par télédétection satellitaire. L'objectif poursuivi est d'analyser une série de données suffi* samment longue pour caractériser de manière statistique le comportement climatologique de l'insolation dans l'espace. Les données sont fournies par 88 héliographes du réseau synoptique français ainsi que par le programme " Cactus " de la Météorologie Nationale, qui utilise les images visibles du satellite Météosat. L'étude porte sur une année de données. La similarité de la structure spatiale des mesures du sol et du satellite est montrée par analyse objective, et par analyse en composantes principales de processus. La fine perception de la variabilité spatiale du satellite est alors utilisée pour optimiser un réseau de mesures au sol. Les performances du programme Cactus sont comparées avec celles de méthodes d'interpolation classiques (basées sur 23 héliographes), pour l'estimation du rapport d'insolation. Elles se sont révélées plus performantes en terme de cofluctuation. Il apparaît cependant une tendance du satellite à exagérer les valeurs extrêmes. L'étalonnage des mesures satellitaires par des mesures sol a pour but de conjuguer les qualités de précision des hélio* graphes, et la définition spatiale du satellite. Une approche géostatistique est proposée. L'effet recherché est observé à partir d'une certaine densité du réseau d'étalonnage
79

Régularisation et optimisation pour l'imagerie sismique des fondations de pylônes

Vautrin, Denis 14 December 2011 (has links) (PDF)
Cette thèse porte sur l'auscultation de fondations de pylônes électriques par contrôle non destructif. Une procédure d'imagerie par ondes sismiques est utilisée, ce qui consiste à générer une onde sismique au voisinage de la fondation avec une source vibratoire et à mesurer la vitesse de l'onde résultante à l'aide d'un réseau de géophones. Le travail présenté s'intéresse spécifiquement à la résolution du problème inverse. L'objectif est de concevoir un algorithme permettant de déterminer la géométrie de la fondation auscultée à partir des données enregistrées par les capteurs. Il s'agit d'un problème de tomographie de diffraction. Son caractère mal posé ainsi que la forte non-linéarité du modèle direct rendent sa résolution particulièrement difficile. Deux méthodes d'inversion ont été développées. Elles consistent toutes deux à reconstruire plusieurs cartes du sous-sol, chaque carte étant associée à une caractéristique physique du sous-sol. Dans les deux cas, un critère des moindres carrés régularisé est minimisé de façon itérative. Pour la première approche, peu d'a priori sont pris en compte. Elle se base sur une régularisation markovienne et la différence entre pixels voisins est pénalisée de manière à favoriser la reconstruction de régions lisses séparées par des contours francs. La seconde approche tient compte d'informations a priori plus nombreuses et plus précises. Elles sont liées à la structure particulière des fondations et aux caractéristiques de la terre et du béton. La méthode se base sur une segmentation du milieu à imager en deux régions. Des tests ont été réalisés sur des données simulées afin d'évaluer et de comparer les performances de ces deux méthodes.
80

Cartographie RGB-D dense pour la localisation visuelle temps-réel et la navigation autonome

Meilland, Maxime 28 March 2012 (has links) (PDF)
Dans le contexte de la navigation autonome en environnement urbain, une localisation précise du véhicule est importante pour une navigation sure et fiable. La faible précision des capteurs bas coût existants tels que le système GPS, nécessite l'utilisation d'autres capteurs eux aussi à faible coût. Les caméras mesurent une information photométrique riche et précise sur l'environnement, mais nécessitent l'utilisation d'algorithmes de traitement avancés pour obtenir une information sur la géométrie et sur la position de la caméra dans l'environnement. Cette problématique est connue sous le terme de Cartographie et Localisation Simultanées (SLAM visuel). En général, les techniques de SLAM sont incrémentales et dérivent sur de longues trajectoires. Pour simplifier l'étape de localisation, il est proposé de découpler la partie cartographie et la partie localisation en deux phases: la carte est construite hors-ligne lors d'une phase d'apprentissage, et la localisation est effectuée efficacement en ligne à partir de la carte 3D de l'environnement. Contrairement aux approches classiques, qui utilisent un modèle 3D global approximatif, une nouvelle représentation égo-centrée dense est proposée. Cette représentation est composée d'un graphe d'images sphériques augmentées par l'information dense de profondeur (RGB+D), et permet de cartographier de larges environnements. Lors de la localisation en ligne, ce type de modèle apporte toute l'information nécessaire pour une localisation précise dans le voisinage du graphe, et permet de recaler en temps-réel l'image perçue par une caméra embarquée sur un véhicule, avec les images du graphe, en utilisant une technique d'alignement d'images directe. La méthode de localisation proposée, est précise, robuste aux aberrations et prend en compte les changements d'illumination entre le modèle de la base de données et les images perçues par la caméra. Finalement, la précision et la robustesse de la localisation permettent à un véhicule autonome, équipé d'une caméra, de naviguer de façon sure en environnement urbain.

Page generated in 0.1469 seconds