• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 27
  • 4
  • Tagged with
  • 74
  • 35
  • 28
  • 28
  • 27
  • 22
  • 21
  • 19
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Ondelettes géométriques adaptatives : vers une utilisation de la distance géodésique

Lebrun, Guillaume 31 March 2009 (has links) (PDF)
La transformée en ondelettes a été introduite ces dernières années dans le domaine du traitement des données multimédia car elle permet une représentation compacte des informations. Cette transformée conçue initialement pour les signaux 1D, ne s'appuie pas sur les spécificités des signaux 2D. Afin de prendre en compte ces spécificités, plusieurs transformées en ondelettes géométriques ont été proposées : nous en étudions deux propositions dans cette thèse. Plus particulièrement, nous allons présenter deux transformées en ondelettes géométriques adaptatives, c'est à dire, deux transformées en ondelettes dont l'ensemble des fonctions d'analyse et de synthèse est défini à partir de l'identification des singularités de l'image. La première transformée, définie par Le Pennec, s'appuie sur une détection des contours pour extraire et traiter séparément des bandes de l'image. La deuxième transformée s'appuie quand à elle, sur un ensemble de mesures de la distance géodésique spécifique au signal traité. Cet ensemble de mesures est ensuite exploité à travers un schéma de lifting pondéré. Ces deux transformées sont confrontées aux applications de suppression de bruit et de suppression de l'effet de bloc lié à la compression JPEG. Nous commenterons ces résultats afin de mettre en évidence les apports ainsi que les limites de ces approches.
22

Contribution au traitement et à l'analyse de signaux issus de processus physiologiques

Louis-Dorr, Valérie 02 October 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire concernent le traitement et l'analyse des signaux issus de processus physiologiques. La difficulté de traiter ces signaux réside dans la connaissance du processus lui même. En effet, ces systèmes sont souvent modélisés sous l'aspect fonctionnel. Or, il s'avère que les processus vivants requièrent une représentation organisationnelle, structurale, fonctionnelle, mais aussi géométrique et topologique. L'étape de modélisation est d'un enjeu majeur pour définir la méthodologie de traitement des signaux recueillis. Etant donné les nombreuses interactions que présentent ces systèmes, les étapes de prétraitement et de mises en relations multidimensionnelles des signaux disponibles sont généralement incontournables. Les principales contributions présentées visent la détection précoce du glaucome, la phonotentérographie dans le cadre de l'analyse fonctionnelle digestive et enfin l'épilepsie via la caractérisation des crises au travers des signaux EEG. Les perspectives de ce travail se situent dans la continuité des travaux menés en neurophysiologie. De ce contexte, deux axes principaux sont dégagés : l'étude des mécanismes physiopathologiques qui sous-tendent les crises d'épilepsie portant sur l'identification des réseaux épileptiques et leurs relations avec les réseaux cognitifs normaux et l'identification des réseaux neuronaux qui sont mis en jeu au cours des processus mnésiques physiologiques (encodage, stockage, restitution).
23

Robust microphone array signal processing against diffuse noise

Ito, Nobutaka 24 January 2012 (has links) (PDF)
Nous étudions le problème général du traitement d'antennes de microphones dans des environnements contenant du bruit diffus. Ce problème a plusieurs applications incarnées par le rehaussement et la reconnaissance robuste de la parole. Du bruit diffus provenant de nombreuses directions à la fois est souvent rencontré dans les situations réelles et il forme un obstacle majeur à l'application des techniques existantes de localisation et de réhaussement de sources. Nous opérons dans le domaine temps-fréquence, où la cible et le bruit sont gaussiens de moyenne nulle et modélisés par leurs matrices de covariance. Premièrement, nous introduisons un modèle général de sous-espace linéaire de la matrice de covariance du bruit qui généralise trois modèles de l'état de l'art et nous proposons un quatrième modèle de covariance à valeur réelle plus flexible. Nous mesurons expérimentalement l'adéquation de ces modèles à des signaux de bruits réels. Deuxièmement, nous appliquons ce modèle général à la tâche de débruitage pour une cible de vecteur de direction connu. Dans l'approche de l'état de l'art par formation de voies et post-filtrage de Wiener, il est essentiel d'estimer précisément le spectre de puissance à court terme de la cible. Nous proposons un algorithme pour l'estimation de ce spectre basé sur la projection de la matrice de covariance observée sur le complément orthogonal du sous-espace de la matrice de covariance du bruit. La composante résultant de cette projection est idéalement non contaminée par le bruit, ce qui permet une estimation plus précise du spectre de puissance de la cible. Nous évaluons expérimentalement la performance de débruitage avec des signaux de bruits réels. Troisièmement, nous étudions la tâche de localisation de sources multiples. Afin d'atténuer la dégradation de performance de l'algorithme de l'état de l'art MUltiple SIgnal Classification (MUSIC) en présence de bruit diffus, nous estimons la matrice de covariance de la cible et appliquons MUSIC à cette matrice. Cette estimation repose sur la composante non bruitée de la matrice de covariance de la cible estimée ci-dessus par projection et sur la reconstruction de la composante manquante par des techniques de complétion de matrice. Nous proposons deux algorithmes alternatifs basés sur une approximation de rang faible et sur la minimisation de la norme trace en exploitant le faible rang et la nature hermitienne définie semi-positive de la matrice de covariance du signal. Nous comparons la performance de ces deux algorithmes pour les quatre modèles de bruit sur un corpus que nous avons créé. Enfin, nous présentons un algorithme général pour le débruitage d'une source cible dont le vecteur de direction est inconnu. Cette tâche est importante dans un environnement réel, car le vecteur de direction n'est généralement pas connu précisément en pratique. Nous estimons conjointement le vecteur de direction et le spectre de puissance à court terme de la cible pour effectuer la formation de voies et le post-filtrage de Wiener. L'estimation repose sur une complétion de matrice de rang 1 et sur une analyse en composantes principales (ACP). L'algorithme proposé améliore la rapport signal-à-bruit (RSB) de 7 dB environ par rapport à l'algorithme de l'état de l'art d'analyse en vecteurs indépendants (AVI).
24

Débruitage d'images au-delà du bruit additif gaussien - Estimateurs à patchs et leur application à l'imagerie SAR

Deledalle, Charles-Alban 15 November 2011 (has links) (PDF)
Le bruit dans les images limite souvent l'interprétation visuelle ou automatique de la scène. Le chatoiement ou "speckle" en imagerie radar à synthèse d'ouverture (RSO) et le bruit de grenaille ou "shot noise" en imagerie à faible luminosité sont deux exemples de fortes corruptions qui nécessitent l'utilisation de techniques de débruitage. Les vignettes ou "patchs" sont de petites imagettes qui capturent à la fois les textures et les structures locales. Bien qu'étant assez rudimentaires (comparées à des descripteurs de plus haut niveau), elles ont mené à de puissantes approches de traitement d'images tirant parti de la redondance naturelle des images. Les méthodes à patchs représentent l'état-de-l'art des méthodes de débruitage. La technique classique de débruitage à patchs, les moyennes non-locales (NL), est conçue pour les images corrompues par du bruit additif gaussien (c-à-d., pour des fluctuations symétriques, indépendantes du signal et sans valeurs extrêmes). Les moyennes NL ne peuvent pas être appliquées directement sur des images corrompues par un bruit non-gaussien surtout pour des distributions asymétriques, dépendantes du signal et à queues lourdes telles que le bruit de chatoiement et le bruit de grenaille. Le but de cette thèse est de combler le fossé entre les méthodes de débruitage à patchs, restreintes au bruit gaussien, et les techniques dédiées aux images RSO. Après avoir examiné les techniques de débruitage d'image pour le bruit gaussien puis non-gaussien, nous proposons une extension des moyennes NL qui s'adapte à la distribution d'un bruit donné. Au-delà du problème du débruitage d'image, nous étudions le problème de la comparaison de patchs sous conditions non-gaussiennes. La plupart des tâches de vision par ordinateur requièrent de mettre en correspondance des parties d'images. Nous introduisons un critère de similarité fondé sur le rapport de vraisemblance généralisé et nous illustrons son efficacité sur différentes applications dont la détection, la vision stéréoscopique et le suivi de mouvement. Ce critère est au coeur de l'estimateur à patchs proposé. Un schéma itératif est élaboré pour faire face aux fortes corruptions de bruit et nous développons une méthode non-supervisée pour le réglage des paramètres. Notre approche mène à des résultats de débruitage état-de-l'art en imagerie RSO pour les images d'amplitude, ainsi que les données interférométriques ou polarimétriques. La technique proposée est appliquée avec succès sur l'un des derniers capteurs aérien RSO: F-SAR de l'agence aérospatiale allemande (DLR). Les images avec de forts contrastes souffrent d'un artéfact de débruitage de type "halo de bruit" dû à l'absence de patchs similaires dans les environs de certaines structures. Ce bruit résiduel peut être réduit en considérant des patchs avec des formes d'échelle et d'orientation variées. La sélection locale des formes pertinentes permet d'améliorer la qualité du débruitage, surtout à proximité des contours.
25

Agrégation d'estimateurs et méthodes à patch pour le débruitage d'images numériques

Salmon, Jospeh 09 December 2010 (has links) (PDF)
Le problème étudié dans cette thèse est celui du débruitage d'images numériques cor- rompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une lim- ite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations.
26

Diffusion Tensor Imaging of the Human Skeletal Muscle : Contributions and Applications

Neji, Radhouène 09 March 2010 (has links) (PDF)
Cette thèse propose des techniques pour le traitement d'images IRM de diffusion. Les méthodes proposées concernent l'estimation et la régularisation, le groupement et la segmentation ainsi que le recalage. Le cadre variationnel proposé dans cette thèse pour l'estimation d'un champ de tenseurs de diffusion à partir d'observations bruitées exploite le fait que les données de diffusion représentent des populations de fibres et que chaque tenseur peut être reconstruit à partir d'une combinaison pondérée de tenseurs dans son voisinage. La méthode de segmentation traite aussi bien les voxels que les fibres. Elle est basée sur l'utilisation de noyaux défini-positifs sur des probabilités gaussiennes de diffusion afin de modéliser la similarité entre tenseurs et les interactions spatiales. Ceci permet de définir des métriques entre fibres qui combinent les informations de localisation spatiale et de tenseurs de diffusion. Plusieurs approches de groupement peuvent être appliquées par la suite pour segmenter des champs de tenseurs et des trajectoires de fibres. Un cadre de groupement supervisé est proposé pour étendre cette technique. L'algorithme de recalage utilise les noyaux sur probabilités pour recaler une image source et une image cible. La régularité de la déformation est évaluée en utilisant la distortion induite sur les distances entre probabilités spatialement voisines. La minimisation de la fonctionnelle de recalage est faite dans un cadre discret. La validation expérimentale est faite sur des images du muscle du mollet pour des sujets sains et pour des patients atteints de myopathies. Les résultats des techniques développées dans cette thèse sont encourageants.
27

Imagerie par résonance magnétique du tenseur de diffusion (IRM-TD) en imagerie cardiaque humaine : traitements et premi`eres interprétations

Frindel, Carole 04 December 2009 (has links) (PDF)
Cette thèse a pour cadre l'étude de l'organisation spatiale des fibres du muscle cardiaque à partir de séries d'images tridimensionnelles acquises par IRM du Tenseur de Diffusion (IRMTD). Cette organisation constitue une propriété fondamentale du coeur sous-tendant la fonction contractile. Néanmoins elle est très complexe à obtenir au vu des difficultés inhérentes au mouvements cardiaque et respiratoire. Notre objectif consiste à développer de nouvelles approches, basées sur la prise en compte du mouvement du coeur et de la sensibilité au bruit de l'acquisition, pour l'estimation, l'analyse et la visualisation des fibres du myocarde. Dans ce cadre, mes travaux se déclinent selon trois axes principaux. Le premier compare, dans le contexte d'études cliniques ex vivo, les principales approches de régularisation opérant soit sur les images pondérées en diffusion soit sur les champs de tenseurs de diffusion. Les différences sont suffisamment faibles pour conclure que la qualité de nos données IRMTD est suffisante pour considérer toutes les méthodes de régularisation comme équivalentes. Partant de ce constat, une méthode de régularisation simple et rapide apparaî satisfaisante. Le second concerne la mise en place d'une méthode de tractographie spécialement conçue pour la spécificité cardiaque. Celle-ci est guidée par une fonctionnelle de coût globale qui permet l'estimation automatique des fibres cardiaques en une seule fois pour l'ensemble des données, et ce sans l'utilisation de points d'initialisation. Le dernier axe consiste en la distinction d'une population de fibres cardiaques en sous-groupes. Celle-ci s'appuie sur la comparaison de méthodes de classification de type géométrique et de type topologique exploitant toutes trois modes différents de représentation des fibres. Les résultats établissent que la classification pourrait permettre l'identification automatique de régions spécialisées dans le myocarde, ce qui pourrait grandement faciliter l'analyse et la comparaison des données IRMTD cardiaques pour la conception de thérapies patient-spécifiques.
28

Développements récents sur l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 03 April 2014 (has links) (PDF)
A ce jour, l'essentiel de mes travaux s'articule autour de l'estimation de fonctions inconnues émanant de phénomènes aléatoires. La richesse de ces phénomènes combinée avec l'amélioration constante des méthodes d'estimation nourrissent mon intérêt pour le sujet. J'ai toutefois choisi de me spécialiser dans les méthodes d'ondelettes. La principale raison est qu'elles bénéficient d'une grande faculté d'adaptation à la complexité du problème posé, tout en ayant des performances d'estimation remarquables. Cela est présenté dans la première partie de ce rapport. Les trois autres parties concernent trois de mes résultats les plus significatifs. En outre, ils sont applicables à une multitude de modèles statistiques, ouvrant ainsi un large champ d'applications, et améliorent certains aspects de résultats existants.
29

Méthodologie d'analyse de levés électromagnétiques aéroportés en domaine temporel pour la caractérisation géologique et hydrogéologique

Reninger, Pierre-Alexandre 24 October 2012 (has links) (PDF)
Cette thèse doctorale aborde divers aspects méthodologiques de l'analyse de levés électromagnétiques aéroportés en domaine temporel (TDEM) pour une interprétation détaillée à finalités géologique et hydrogéologique. Ce travail s'est appuyé sur un levé réalisé dans la région de Courtenay (Nord-Est de la région Centre) caractérisée par un plateau de craie karstifié (karst des Trois Fontaines) recouvert par des argiles d'altération et des alluvions. Tout d'abord, une méthode de filtrage des données TDEM utilisant la Décomposition en Valeurs Singulières (SVD) a été développée. L'adaptation rigoureuse de cette technique aux mesures TDEM a permis de séparer avec succès les bruits, qui ont pu être cartographiés, et le " signal géologique ", diminuant grandement le temps nécessaire à leur traitement. De plus, la méthode s'est avérée efficace pour obtenir, rapidement, des informations géologiques préliminaires sur la zone. Ensuite, une analyse croisée entre le modèle de résistivité obtenu en inversant les données filtrées et les forages disponibles a été effectuée. Celle-ci a mené à une amélioration de la connaissance géologique et hydrogéologique de la zone. Une figure d'ondulation, séparant deux dépôts de craie, et le réseau de failles en subsurface ont pu être imagés, apportant un cadre géologique au karst des Trois Fontaines. Enfin, une nouvelle méthode combinant l'information aux forages et les pentes issues du modèle de résistivité EM a permis d'obtenir un modèle d‟une précision inégalée du toit de la craie. L'ensemble de ces travaux fournit un cadre solide pour de futures études géo-environnementales utilisant des données TDEM aéroportées, et ce, même en zone anthropisée.
30

Image Formation from a Large Sequence of RAW Images : performance and accuracy / Formation d’image à partir d’une grande séquence d’images RAW : performance et précision

Briand, Thibaud 13 November 2018 (has links)
Le but de cette thèse est de construire une image couleur de haute qualité, contenant un faible niveau de bruit et d'aliasing, à partir d'une grande séquence (e.g. des centaines) d'images RAW prises avec un appareil photo grand public. C’est un problème complexe nécessitant d'effectuer à la volée du dématriçage, du débruitage et de la super-résolution. Les algorithmes existants produisent des images de haute qualité, mais le nombre d'images d'entrée est limité par des coûts de calcul et de mémoire importants. Dans cette thèse, nous proposons un algorithme de fusion d'images qui les traite séquentiellement de sorte que le coût mémoire ne dépend que de la taille de l'image de sortie. Après un pré-traitement, les images mosaïquées sont recalées en utilisant une méthode en deux étapes que nous introduisons. Ensuite, une image couleur est calculée par accumulation des données irrégulièrement échantillonnées en utilisant une régression à noyau classique. Enfin, le flou introduit est supprimé en appliquant l'inverse du filtre équivalent asymptotique correspondant (que nous introduisons). Nous évaluons la performance et la précision de chaque étape de notre algorithme sur des données synthétiques et réelles. Nous montrons que pour une grande séquence d'images, notre méthode augmente avec succès la résolution et le bruit résiduel diminue comme prévu. Nos résultats sont similaires à des méthodes plus lentes et plus gourmandes en mémoire. Comme la génération de données nécessite une méthode d'interpolation, nous étudions également les méthodes d'interpolation par polynôme trigonométrique et B-spline. Nous déduisons de cette étude de nouvelles méthodes d'interpolation affinées / The aim of this thesis is to build a high-quality color image, containing a low level of noise and aliasing, from a large sequence (e.g. hundreds or thousands) of RAW images taken with a consumer camera. This is a challenging issue requiring to perform on the fly demosaicking, denoising and super-resolution. Existing algorithms produce high-quality images but the number of input images is limited by severe computational and memory costs. In this thesis we propose an image fusion algorithm that processes the images sequentially so that the memory cost only depends on the size of the output image. After a preprocessing step, the mosaicked (or CFA) images are aligned in a common system of coordinates using a two-step registration method that we introduce. Then, a color image is computed by accumulation of the irregularly sampled data using classical kernel regression. Finally, the blur introduced is removed by applying the inverse of the corresponding asymptotic equivalent filter (that we introduce).We evaluate the performance and the accuracy of each step of our algorithm on synthetic and real data. We find that for a large sequence of RAW images, our method successfully performs super-resolution and the residual noise decreases as expected. We obtained results similar to those obtained by slower and memory greedy methods. As generating synthetic data requires an interpolation method, we also study in detail the trigonometric polynomial and B-spline interpolation methods. We derive from this study new fine-tuned interpolation methods

Page generated in 0.0413 seconds