• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 27
  • 4
  • Tagged with
  • 74
  • 35
  • 28
  • 28
  • 27
  • 22
  • 21
  • 19
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Débruitage, alignement et reconstruction 3D automatisés en tomographie électronique : applications en sciences des matériaux / Automatic denoising, alignment and reconstruction in electron tomography : materials science applications

Printemps, Tony 24 November 2016 (has links)
La tomographie électronique est une technique de nano-caractérisation 3D non destructive. C’est une technique de choix dans le domaine des nanotechnologies pour caractériser des structures tridimensionnelles complexes pour lesquelles l’imagerie 2D en microscopie électronique en transmission seule n’est pas suffisante. Toutes les étapes nécessaires à la réalisation d’une reconstruction 3D en tomographie électronique sont investiguées dans cette thèse, de la préparation d’échantillon aux algorithmes de reconstruction, en passant par l’acquisition des données et l’alignement. Les travaux entrepris visent en particulier (i) à développer une algorithmie complète incluant débruitage, alignement et reconstruction automatisés afin de rendre la technique plus robuste et donc utilisable en routine (ii) à étendre la tomographie électronique à des échantillons plus épais ou ayant subis une déformation en cours d’acquisition et enfin (iii) à améliorer la tomographie électronique chimique en essayant d’exploiter au maximum toutes les informations disponibles. Toutes ces avancées ont pu être réalisées en s’intéressant particulièrement aux échantillons permettant une acquisition sur une étendue angulaire idéale de 180°. Un logiciel a également été développé au cours de cette thèse synthétisant la majeure partie de ces avancées pour permettre de réaliser simplement toutes les étapes de tomographie électronique post-acquisition. / Electron tomography is a 3D non-destructive nano-characterization technique. It is an essential technique in the field of nanotechnologies to characterize complex structures particularly when 2D projections using a transmission electron microscope (TEM) are inappropriate for understanding the 3D sample morphology. During this thesis each one of the necessary steps of electron tomography have been studied: sample preparation, TEM acquisition, projection alignment and inversion algorithms. The main contributions of this thesis are (i) the development of a new complete procedure of automatic denoising, alignment and reconstruction for a routine use of electron tomography (ii) the extension of the technique to thicker specimen and specimen being damaged during the acquisition and finally (iii) the improvement of chemical tomography reconstructions using as much information as possible. All those contributions are possible taking advantage of the use of needle-shaped samples to acquire projections on an ideal tilt range of 180°. A software has been developed during this thesis to allow users to simply apply most of the contributions proposed in this work.
12

Débruitage de séquences par approche multi-échelles : application à l'imagerie par rayons X / Spatio-temporal denoising using a multi-scale approach : application to fluoroscopic X-ray image sequences

Amiot, Carole 18 December 2014 (has links)
Les séquences fluoroscopiques, acquises à de faibles doses de rayons X, sont utilisées au cours de certaines opérations médicales pour guider le personnel médical dans ces actes. Cependant, la qualité des images obtenues est inversement proportionnelle à cette dose. Nous proposons dans ces travaux un algorithme de réduction de bruit permettant de compenser les effets d'une réduction de la dose d'acquisition et donc garantissant une meilleure protection pour le patient et le personnel médical. Le filtrage développé est un filtre spatio-temporel s'appuyant sur les représentations multi-échelles 2D des images de la séquence pour de meilleures performances. Le filtre temporel récursif d'ordre 1 et compensé en mouvement permet une forte réduction de bruit. Il utilise une détection et un suivi des objets de la séquence. Ces deux étapes déterminent le filtrage spatio-temporel de chaque coefficient multi-échelles. Le filtrage spatial est un seuillage contextuel utilisant le voisinage multi-échelles des coefficients pour éviter l'apparition d'artefacts de forme dans les images reconstruites. La méthode proposée est testée dans deux espaces multi-échelles différents, les curvelets et les ondelettes complexes suivant l'arbre dual. Elle offre des performances supérieures à celles des meilleures méthodes de l'état de l'art. / Acquired with low doses of X-rays, fluoroscopic sequences are used to guide the medical staff during some medical procedures. However, image quality is inversely proportional to acquisition doses. We present here a noise reduction algorithm compensating for the effects of an acquisition at a reduced dose. Such a reduction enables better health protection for the patient as well as for the medical staff. The proposed method is based on a spatio-temporal filter applied on the 2D multi-scales representations of the sequence images to allow for a greater noise reduction. The motion-compensated, recursive filter acccounts for most of the noise reduction. It is composed of a detection and pairing step, which output determines how a coefficient is filtered. Spatial filtering is based on a contextual thresholding to avoid introducing shape-like artifacts. We compare this filtering both in the curvelet and dual-tree complex wavelet domains and show it offers better results than state-of-the-art methods.
13

Signal subspace identification for epileptic source localization from electroencephalographic data / Suppression du bruit de signaux EEG épileptiques

Hajipour Sardouie, Sepideh 09 October 2014 (has links)
Lorsque l'on enregistre l'activité cérébrale en électroencéphalographie (EEG) de surface, le signal d'intérêt est fréquemment bruité par des activités différentes provenant de différentes sources de bruit telles que l'activité musculaire. Le débruitage de l'EEG est donc une étape de pré-traitement important dans certaines applications, telles que la localisation de source. Dans cette thèse, nous proposons six méthodes permettant la suppression du bruit de signaux EEG dans le cas particulier des activités enregistrées chez les patients épileptiques soit en période intercritique (pointes) soit en période critique (décharges). Les deux premières méthodes, qui sont fondées sur la décomposition généralisée en valeurs propres (GEVD) et sur le débruitage par séparation de sources (DSS), sont utilisées pour débruiter des signaux EEG épileptiques intercritiques. Pour extraire l'information a priori requise par GEVD et DSS, nous proposons une série d'étapes de prétraitement, comprenant la détection de pointes, l'extraction du support des pointes et le regroupement des pointes impliquées dans chaque source d'intérêt. Deux autres méthodes, appelées Temps Fréquence (TF) -GEVD et TF-DSS, sont également proposées afin de débruiter les signaux EEG critiques. Dans ce cas on extrait la signature temps-fréquence de la décharge critique par la méthode d'analyse de corrélation canonique. Nous proposons également une méthode d'Analyse en Composantes Indépendantes (ICA), appelé JDICA, basée sur une stratégie d'optimisation de type Jacobi. De plus, nous proposons un nouvel algorithme direct de décomposition canonique polyadique (CP), appelé SSD-CP, pour calculer la décomposition CP de tableaux à valeurs complexes. L'algorithme proposé est basé sur la décomposition de Schur simultanée (SSD) de matrices particulières dérivées du tableau à traiter. Nous proposons également un nouvel algorithme pour calculer la SSD de plusieurs matrices à valeurs complexes. Les deux derniers algorithmes sont utilisés pour débruiter des données intercritiques et critiques. Nous évaluons la performance des méthodes proposées pour débruiter les signaux EEG (simulés ou réels) présentant des activités intercritiques et critiques épileptiques bruitées par des artéfacts musculaires. Dans le cas des données simulées, l'efficacité de chacune de ces méthodes est évaluée d'une part en calculant l'erreur quadratique moyenne normalisée entre les signaux originaux et débruités, et d'autre part en comparant les résultats de localisation de sources, obtenus à partir des signaux non bruités, bruités, et débruités. Pour les données intercritiques et critiques, nous présentons également quelques exemples sur données réelles enregistrées chez des patients souffrant d'épilepsie partielle. / In the process of recording electrical activity of the brain, the signal of interest is usually contaminated with different activities arising from various sources of noise and artifact such as muscle activity. This renders denoising as an important preprocessing stage in some ElectroEncephaloGraphy (EEG) applications such as source localization. In this thesis, we propose six methods for noise cancelation of epileptic signals. The first two methods, which are based on Generalized EigenValue Decomposition (GEVD) and Denoising Source Separation (DSS) frameworks, are used to denoise interictal data. To extract a priori information required by GEVD and DSS, we propose a series of preprocessing stages including spike peak detection, extraction of exact time support of spikes and clustering of spikes involved in each source of interest. Two other methods, called Time Frequency (TF)-GEVD and TF-DSS, are also proposed in order to denoise ictal EEG signals for which the time-frequency signature is extracted using the Canonical Correlation Analysis method. We also propose a deflationary Independent Component Analysis (ICA) method, called JDICA, that is based on Jacobi-like iterations. Moreover, we propose a new direct algorithm, called SSD-CP, to compute the Canonical Polyadic (CP) decomposition of complex-valued multi-way arrays. The proposed algorithm is based on the Simultaneous Schur Decomposition (SSD) of particular matrices derived from the array to process. We also propose a new Jacobi-like algorithm to calculate the SSD of several complex-valued matrices. The last two algorithms are used to denoise both interictal and ictal data. We evaluate the performance of the proposed methods to denoise both simulated and real epileptic EEG data with interictal or ictal activity contaminated with muscular activity. In the case of simulated data, the effectiveness of the proposed algorithms is evaluated in terms of Relative Root Mean Square Error between the original noise-free signals and the denoised ones, number of required ops and the location of the original and denoised epileptic sources. For both interictal and ictal data, we present some examples on real data recorded in patients with a drug-resistant partial epilepsy.
14

Débruitage, séparation et localisation de sources EEG dans le contexte de l'épilepsie / Denoising, separation and localization of EEG sources in the context of epilepsy

Becker, Hanna 24 October 2014 (has links)
L'électroencéphalographie (EEG) est une technique qui est couramment utilisée pour le diagnostic et le suivi de l'épilepsie. L'objectif de cette thèse consiste à fournir des algorithmes pour l'extraction, la séparation, et la localisation de sources épileptiques à partir de données EEG. D'abord, nous considérons deux étapes de prétraitement. La première étape vise à éliminer les artéfacts musculaires à l'aide de l'analyse en composantes indépendantes (ACI). Dans ce contexte, nous proposons un nouvel algorithme par déflation semi-algébrique qui extrait les sources épileptiques de manière plus efficace que les méthodes conventionnelles, ce que nous démontrons sur données EEG simulées et réelles. La deuxième étape consiste à séparer des sources corrélées. A cette fin, nous étudions des méthodes de décomposition tensorielle déterministe exploitant des données espace-temps-fréquence ou espace-temps-vecteur-d'onde. Nous comparons les deux méthodes de prétraitement à l'aide de simulations pour déterminer dans quels cas l'ACI, la décomposition tensorielle, ou une combinaison des deux approches devraient être utilisées. Ensuite, nous traitons la localisation de sources distribuées. Après avoir présenté et classifié les méthodes de l'état de l'art, nous proposons un algorithme pour la localisation de sources distribuées qui s'appuie sur les résultats du prétraitement tensoriel. L'algorithme est évalué sur données EEG simulées et réelles. En plus, nous apportons quelques améliorations à une méthode de localisation de sources basée sur la parcimonie structurée. Enfin, une étude des performances de diverses méthodes de localisation de sources est conduite sur données EEG simulées. / Electroencephalography (EEG) is a routinely used technique for the diagnosis and management of epilepsy. In this context, the objective of this thesis consists in providing algorithms for the extraction, separation, and localization of epileptic sources from the EEG recordings. In the first part of the thesis, we consider two preprocessing steps applied to raw EEG data. The first step aims at removing muscle artifacts by means of Independent Component Analysis (ICA). In this context, we propose a new semi-algebraic deflation algorithm that extracts the epileptic sources more efficiently than conventional methods as we demonstrate on simulated and real EEG data. The second step consists in separating correlated sources that can be involved in the propagation of epileptic phenomena. To this end, we explore deterministic tensor decomposition methods exploiting space-time-frequency or space-time-wave-vector data. We compare the two preprocessing methods using computer simulations to determine in which cases ICA, tensor decomposition, or a combination of both should be used. The second part of the thesis is devoted to distributed source localization techniques. After providing a survey and a classification of current state-of-the-art methods, we present an algorithm for distributed source localization that builds on the results of the tensor-based preprocessing methods. The algorithm is evaluated on simulated and real EEG data. Furthermore, we propose several improvements of a source imaging method based on structured sparsity. Finally, a comprehensive performance study of various brain source imaging methods is conducted on physiologically plausible, simulated EEG data.
15

Blancheur du résidu pour le débruitage d'image / Residual whiteness for image denoising

Riot, Paul 06 February 2018 (has links)
Nous proposons une étude de l’utilisation avancée de l’hypothèse de blancheur du bruit pour améliorer les performances de débruitage. Nous mettons en avant l’intérêt d’évaluer la blancheur du résidu par des mesures de corrélation dans différents cadres applicatifs. Dans un premier temps, nous nous plaçons dans un cadre variationnel et nous montrons qu’un terme de contrainte sur la blancheur du résidu peut remplacer l’attache aux données L2 en améliorant significativement les performances de débruitage. Nous le complétons ensuite par des termes de contrôle de la distribution du résidu au moyen des moments bruts. Dans une seconde partie, nous proposons une alternative au rapport de vraisemblance menant, à la norme L2 dans le cas Gaussien blanc, pour mesurer la dissimilarité entre patchs. La métrique introduite, fondée sur l’autocorrélation de la différence des patchs, se révèle plus performante pour le débruitage et la reconnaissance de patchs similaires. Finalement, les problématiques d’évaluation de qualité sans oracle et de choix local de modèle sont abordées. Encore une fois, la mesure de la blancheur du résidu apporte une information pertinente pour estimer localement la fidélité du débruitage. / We propose an advanced use of the whiteness hypothesis on the noise to imrove denoising performances. We show the interest of evaluating the residual whiteness by correlation measures in multiple applications. First, in a variational denoising framework, we show that a cost function locally constraining the residual whiteness can replace the L2 norm commonly used in the white Gaussian case, while significantly improving the denoising performances. This term is then completed by cost function constraining the residual raw moments which are a mean to control the residual distribution. In the second part of our work, we propose an alternative to the likelihood ratio, leading to the L2 norm in the white Gaussian case, to evaluate the dissimilarity between noisy patches. The introduced metric, based on the autocorrelation of the patches difference, achieves better performances both for denoising and similar patches recognition. Finally, we tackle the no reference quality evaluation and the local model choice problems. Once again, the residual whiteness bring a meaningful information to locally estimate the truthfulness of the denoising.
16

Some advances in patch-based image denoising / Quelques avancées dans le débruitage d'images par patchs

Houdard, Antoine 12 October 2018 (has links)
Cette thèse s'inscrit dans le contexte des méthodes non locales pour le traitement d'images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d'autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l'image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble.Dans le premier chapitre, le principe du "global denoising" est reformulé avec le formalisme classique de l'estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l'image et sur le filtre global sont introduites pour assurer et quantifier la convergence.Le deuxième chapitre est consacré à l'étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d'images par patches. Ces a priori sont largement utilisés pour la restauration d'image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ?Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performance de l'état-de-l'art.Le dernier chapitre explore des pistes d'agrégation différentes et propose une écriture de l’étape d'agrégation sous la forme d'un problème de moindre carrés. / This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into "patches". These patches can then be grouped, compared and filtered together.In the first chapter, "global denoising" is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence.The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image?The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed.
17

Understanding, improving, and generalizing generative models

Jolicoeur-Martineau, Alexia 08 1900 (has links)
Les modèles génératifs servent à générer des échantillons d'une loi de probabilité (ex. : du texte, des images, de la musique, des vidéos, des molécules, et beaucoup plus) à partir d'un jeu de données (ex. : une banque d'images, de texte, ou autre). Entrainer des modèles génératifs est une tâche très difficile, mais ces outils ont un très grand potentiel en termes d'applications. Par exemple, dans le futur lointain, on pourrait envisager qu'un modèle puisse générer les épisodes d'une émission de télévision à partir d'un script et de voix générés par d'autres modèles génératifs. Il existe plusieurs types de modèles génératifs. Pour la génération d'images, l'approche la plus fructueuse est sans aucun doute la méthode de réseaux adverses génératifs (GANs). Les GANs apprennent à générer des images par un jeu compétitif entre deux joueurs, le Discriminateur et le Générateur. Le Discriminateur tente de prédire si une image est vraie ou fausse, tandis que le Générateur tente de générer des images plus réalistes en apprenant à faire croire au discriminateur que ces fausses images générées sont vraies. En complétant ce jeu, les GANs arrivent à générer des images presque photo-réalistes. Il est souvent possible pour des êtres humains de distinguer les fausses images (générés par les GANs) des vraies images (ceux venant du jeu de données), mais la tâche devient plus difficile au fur et à mesure que cette technologie s'améliore. Le plus gros défaut des GANs est que les données générées par les GANs manquent souvent de diversité (ex. : les chats au visage aplati sont rares dans la banque d'images, donc les GANs génèrent juste des races de chats plus fréquentes). Ces méthodes souvent aussi souvent très instables. Il y a donc encore beaucoup de chemin à faire avant l'obtention d'images parfaitement photo-réalistes et diverses. De nouvelles méthodes telles que les modèles de diffusion à la base de score semblent produire de meilleurs résultats que les GANs, donc tout n'est pas gagné pour les GANs. C'est pourquoi cette thèse n'est pas concentrée seulement sur les GANs, mais aussi sur les modèles de diffusion. Notez que cette thèse est exclusivement concentrée sur la génération de données continues (ex. : images, musique, vidéos) plutôt que discrètes (ex. : texte), car cette dernière fait usage de méthodes complètement différentes. Le premier objectif de cette thèse est d'étudier les modèles génératifs de façon théorique pour mieux les comprendre. Le deuxième objectif de cette thèse est d'inventer de nouvelles astuces (nouvelles fonctions objectives, régularisations, architectures, etc.) permettant d'améliorer les modèles génératifs. Le troisième objectif est de généraliser ces approches au-delà de leur formulation initiale, pour permettre la découverte de nouveaux liens entre différentes approches. Ma première contribution est de proposer un discriminateur relativiste qui estime la probabilité qu'une donnée réelle, soit plus réaliste qu'une donnée fausse (inventée par un modèle générateur). Les GANs relativistes forment une nouvelle classe de fonctions de perte qui apportent beaucoup de stabilité durant l'entrainement. Ma seconde contribution est de prouver que les GANs relativistes forment une mesure de dissimilarité. Ma troisième contribution est de concevoir une variante adverse au appariement de score pour produire des données de meilleure qualité avec les modèles de diffusion. Ma quatrième contribution est d'améliorer la vitesse de génération des modèles de diffusion par la création d'une méthode numérique de résolution pour équations différentielles stochastiques (SDEs). / Generative models are powerful tools to generate samples (e.g., images, music, text) from an unknown distribution given a finite set of examples. Generative models are hard to train successfully, but they have the potential to revolutionize arts, science, and business. These models can generate samples from various data types (e.g., text, images, audio, videos, 3d). In the future, we can envision generative models being used to create movies or episodes from a TV show given a script (possibly also generated by a generative model). One of the most successful methods for generating images is Generative Adversarial Networks (GANs). This approach consists of a game between two players, the Discriminator and the Generator. The goal of the Discriminator is to classify an image as real or fake, while the Generator attempts to fool the Discriminator into thinking that the fake images it generates are real. Through this game, GANs are able to generate very high-quality samples, such as photo-realistic images. Humans are still generally able to distinguish real images (from the training dataset) from fake images (generated by GANs), but the gap is lessening as GANs become better over time. The biggest weakness of GANs is that they have trouble generating diverse data representative of the full range of the data distribution. Thus, there is still much progress to be made before GANs reach their full potential. New methods performing better than GANs are also appearing. One prime example is score-based diffusion models. This thesis focuses on generative models that seemed promising at the time for continuous data generation: GANs and score-based diffusion models. I seek to improve generative models so that they reach their full potential (Objective 1: Improving) and to understand these approaches better on a theoretical level (Objective 2: Theoretical understanding). I also want to generalize these approaches beyond their original setting (Objective 3: Generalizing), allowing the discovery of new connections between different concepts/fields. My first contribution is to propose using a relativistic discriminator, which estimates the probability that a given real data is more realistic than a randomly sampled fake data. Relativistic GANs form a new class of GAN loss functions that are much more stable with respect to optimization hyperparameters. My second contribution is to take a more rigorous look at relativistic GANs and prove that they are proper statistical divergences. My third contribution is to devise an adversarial variant to denoising score matching, which leads to higher quality data with score-based diffusion models. My fourth contribution is to significantly improve the speed of score-based diffusion models through a carefully devised Stochastic Differential Equation (SDE) solver.
18

Acquisitions d'IRM de diffusion à haute résolution spatiale : nouvelles perspectives grâce au débruitage spatialement adaptatif et angulaire

St-Jean, Samuel January 2015 (has links)
Le début des années 2000 a vu la cartographie du génome humain se réaliser après 13 ans de recherche. Le défi du prochain siècle réside dans la construction du connectome humain, qui consiste à cartographier les connexions du cerveau en utilisant l’imagerie par résonance magnétique (IRM) de diffusion. Cette technique permet en effet d’étudier la matière blanche du cerveau de façon complètement non invasive. Bien que le défi soit monumental, la résolution d’une image d’IRM se situe à l’échelle macroscopique et est environ 1000 fois inférieure à la taille des axones qu’il faut cartographier. Pour aider à pallier à ce problème, ce mémoire propose une nouvelle technique de débruitage spécialement conçue pour l’imagerie de diffusion. L’algorithme Non Local Spatial and Angular Matching (NLSAM) se base sur les principes du block matching et du dictionary learning pour exploiter la redondance des données d’IRM de diffusion. Un seuillage sur les voisins angulaire est aussi réalisé à l’aide du sparse coding, où l’erreur de reconstruction en norme l2 est bornée par la variance locale du bruit. L’algorithme est aussi conçu pour gérer le biais du bruit Ricien et Chi non centré puisque les images d’IRM contiennent du bruit non Gaussien. Ceci permet ainsi d’acquérir des données d’IRM de diffusion à une plus grande résolution spatiale que présentement disponible en milieu clinique. Ce travail ouvre donc la voie à un meilleur type d’acquisition, ce qui pourrait contribuer à révéler de nouveaux détails anatomiques non discernables à la résolution spatiale présentement utilisée par la communauté d’IRM de diffusion. Ceci pourrait aussi éventuellement contribuer à identifier de nouveaux biomarqueurs permettant de comprendre les maladies dégénératives telles que la sclérose en plaques, la maladie d’Alzheimer et la maladie de Parkinson.
19

Analyse 2-microlocale et application au débruitage

Echelard, Antoine 28 November 2007 (has links) (PDF)
Afin d'analyser des signaux dont la régularité varie, il est nécessaire d'utiliser des outils caractérisant leur comportement en un point.<br /><br />La frontière 2-microlocale donne un point de vue général sur ces outils. A chaque point du domaine de définition d'une fonction est associée une courbe qui caractérise de façon complète sa régularité en ce point. Nous rappelons dans une première partie sa définition et ses propriétés.<br /><br />Dans la deuxième partie, nous en donnons une forme "temporelle" qui permet de la considérer comme une généralisation naturelle des exposants de Hölder. Nous montrons ses propriétés directement à partir de cette expression. Nous introduisons également un spectre 2-microlocal en temps qui facilite son calcul et traitons quelques exemples.<br /><br />Dans la troisième partie, nous explicitons un cadre commun au le spectre 2-microlocal et au spectre multifractal. Nous montrons dans ce cadre commun des résultats nouveaux concernant leur prescription. <br /><br />Dans une quatrième partie, nous appliquons l'analyse 2-microlocale au débruitage de signaux. Nous proposons une méthode permettant de retrouver la régularité globale, puis une méthode permettant de retrouver le spectre 2-microlocal initial en un point, et d'éviter ainsi les oscillations. Les méthodes de débruitages sont illustrées par des applications numériques sur des fonctions classiques.<br /><br />Enfin, nous exposons dans la dernière partie un travail, de nature appliquée, effectué en collaboration avec l'ENILIA Surgères : il s'agit de l'application d'outils fractals décrivant la régularité globale à la classification automatique d'images microscopiques de beurre.
20

Multispectral imaging and its use for face recognition : sensory data enhancement / Imagerie multispectrale et son usage pour la reconnaissance de visage : amélioration des données sensorielles

Ben Said, Ahmed 03 June 2015 (has links)
La recherche en biométrie a connu une grande évolution durant les dernières annéessurtout avec le développement des méthodes de décomposition de visage. Cependant,ces méthodes ne sont pas robustes particulièrement dans les environnements incontrôlés.Pour faire face à ce problème, l'imagerie multispectrale s'est présentée comme une nouvelletechnologie qui peut être utilisée en biométrie basée sur la reconnaissance de visage.Dans tous ce processus, la qualité des images est un facteur majeur pour concevoirun système de reconnaissance fiable. Il est essentiel de se disposer d'images de hautequalité. Ainsi, il est indispensable de développer des algorithmes et des méthodes pourl'amélioration des données sensorielles. Cette amélioration inclut plusieurs tâches tellesque la déconvolution des images, le defloutage, la segmentation, le débruitage. . . Dansle cadre de cette thèse, nous étudions particulièrement la suppression de bruit ainsi quela segmentation de visage.En général, le bruit est inévitable dans toutes applications et son élimination doit sefaire tout en assurant l'intégrité de l'information confinée dans l'image. Cette exigenceest essentielle dans la conception d'un algorithme de débruitage. Le filtre Gaussienanisotropique est conçu spécifiquement pour répondre à cette caractéristique. Nous proposonsd'étendre ce filtre au cas vectoriel où les données en disposition ne sont plus desvaleurs de pixels mais un ensemble de vecteurs dont les attribues sont la réflectance dansune longueur d'onde spécifique. En outre, nous étendons aussi le filtre de la moyennenon-local (NLM) dans le cas vectoriel. La particularité de ce genre de filtre est la robustesseface au bruit Gaussien.La deuxième tâche dans le but d'amélioration de données sensorielles est la segmentation.Le clustering est l'une des techniques souvent utilisées pour la segmentation etclassification des images. L'analyse du clustering implique le développement de nouveauxalgorithmes particulièrement ceux qui sont basés sur la méthode partitionnelle.Avec cette approche, le nombre de clusters doit être connu d'avance, chose qui n'est pastoujours vraie surtout si nous disposons de données ayant des caractéristiques inconnues.Dans le cadre de cette thèse, nous proposons de nouveaux indices de validationde clusters qui sont capables de prévoir le vrai nombre de clusters même dans le cas dedonnées complexes.A travers ces deux tâches, des expériences sur des images couleurs et multispectrales sontréalisées. Nous avons utilisé des bases de données d'image très connues pour analyserl'approche proposée. / In this thesis, we focus on multispectral image for face recognition. With such application,the quality of the image is an important factor that affects the accuracy of therecognition. However, the sensory data are in general corrupted by noise. Thus, wepropose several denoising algorithms that are able to ensure a good tradeoff betweennoise removal and details preservation. Furthermore, characterizing regions and detailsof the face can improve recognition. We focus also in this thesis on multispectral imagesegmentation particularly clustering techniques and cluster analysis. The effectiveness ofthe proposed algorithms is illustrated by comparing them with state-of-the-art methodsusing both simulated and real multispectral data sets.

Page generated in 0.4293 seconds