Spelling suggestions: "subject:"deconvolution"" "subject:"convolution""
41 |
Blancheur et non-gaussianité pour la déconvolution aveugle de données brutiées : application aux signaux sismiquesLarue, Anthony 13 September 2006 (has links) (PDF)
Nous nous intéressons à la déconvolution aveugle de signaux bruités et plus précisément de signaux d'imagerie sismique. Pour réaliser l'inversion, nous souhaitons effectuer une sélection des statistiques d'ordre supérieur adaptées à la distribution du signal à déconvoluer. Pour cela, nous nous appuyons sur l'hypothèse de blancheur ou de non-gaussianité. Nous proposons une approche avec le taux d'information mutuelle comme mesure de blancheur et une autre basée sur la non-gaussianité du signal de sortie mesurée par la néguentropie. Après le développement d'algorithmes dans le domaine temporel et fréquentiel, nous caractérisons l'influence sur les critères du bruit additif présent sur les données. Nous démontrons que l'hypothèse de non-gaussianité est plus robuste à la présence d'un bruit additif sur les données blanc et gaussien. Cette approche permet pour des données synthétiques et réelles un très bon compromis entre la qualité de la déconvolution et l'amplification du bruit.
|
42 |
TRAITEMENT STATISTIQUE DU SIGNAL SPECTROMETRIQUE :<br />Etude du désempilement de spectre en énergie pour la spectrométrie gammaTrigano, Thomas 15 December 2005 (has links) (PDF)
Dans le cadre de la spectrométrie Gamma, on s'intéresse à la caractérisation des éléments radioactifs d'une source à partir des photons gamma émis par cette dernière. A des taux de comptage élevés, des perturbations liées à l'aspect stochastique du signal étudié sont susceptibles de gêner l'identification des éléments radioactifs. En particulier, les arrivées aléatoires des photons sont susceptibles de produire des empilements. Ce phénomène introduit une distortion du spectre en énergie, notamment l'apparition de faux pics multiples et une distortion du continuum Compton qui peut masquer des pics de faible intensité.<br /><br />L'objectif de cette étude est de corriger les distortions des spectres en énergie causées par les empilements d'impulsions photoniques. Nous nous plaçons pour cela dans un cadre non-paramétrique ; nous établissons une relation non-linéaire entre la loi des observations et la densité de probabilité que l'on cherche à estimer. Elle permet de considérer ce problème dans le cadre de la déconvolution non-linéaire de densités et de l'estimation non-paramétrique à partir de mesures indirectes.<br /><br />A partir de cette relation, nous proposons un estimateur obtenu par inversion directe. Nous montrons que cet estimateur est consistant et que sa vitesse de convergence au sens de la norme L2 est proche des vitesses non-paramétriques usuelles.<br /><br />Nous illustrons ces aspects par des résultats numériques obtenus sur des simulations et des spectres en énergie obtenus à partir du système ADONIS développé par le CEA Saclay. Nous montrons que les distortions dues aux empilements d'impulsions photoniques sont bien corrigées par les algorithmes dérivant de nos estimateurs.
|
43 |
Analyse en ondelettes M-bandes en arbre dual; application à la restauration d'imagesChaux, Caroline 13 December 2006 (has links) (PDF)
Cette thèse porte sur les décompositions en ondelettes M-bandes en arbre dual ainsi que sur leur application à l'analyse et la restauration d'images. Ces décompositions permettent d'obtenir une analyse multi-échelles, directionnelle et locale des images. Elles s'inscrivent donc dans la perspective de travaux récents visant à mieux représenter les informations géométriques (textures, contours) et les préserver lors de traitements. Ce travail s'appuie sur les travaux antérieurs de N. Kingsbury et I. Selesnick portant sur la construction de décompositions en ondelettes formant des paires de Hilbert (approchées). Ces auteurs ont établi divers résultats concernant le cas dyadique et l'une de nos contributions a été de montrer qu'il était possible de généraliser leurs conclusions et de montrer de nouveaux résultats dans le cas M-bandes. Les représentations proposées présentent de nombreux avantages notamment en termes d'invariance par translation de l'analyse et de sélectivité directionnelle. Nous avons établi les conditions que doivent satisfaire les bancs de filtres en arbre dual servant à l'analyse et à la synthèse des signaux traités. Nous avons également étudié les pré-traitements qu'il est nécessaire d'appliquer à des données discrètes. Ces décompositions introduisant typiquement une redondance d'un facteur 2 (dans le cas réel, et de 4 dans le cas complexe), elles constituent des trames à partir desquelles on peut calculer une reconstruction optimale. Ces nouvelles transformées ont finalement été généralisées aux cadres biorthogonal et complexe. Notre volonté d'appliquer ces outils d'analyse au débruitage de signaux nous a conduit à l'étude des propriétés statistiques des coefficients issus de la décomposition M-bandes en arbre dual d'un processus aléatoire stationnaire au sens large. Nous avons tout d'abord calculé les statistiques au second ordre de ces coefficients et nous avons étudié le rôle du post-traitement dans le calcul des corrélations. Quelques résultats asymptotiques concernant les corrélations d'un couple de coefficients primal/dual ont également été obtenus. Les inter-corrélations entre les ondelettes primale et duale jouant un rôle clé dans notre étude, nous en avons fourni des expressions exactes pour quelques familles d'ondelettes usuelles. Des simulations numériques nous ont aussi permis de valider nos résultats théoriques ainsi que d'évaluer la zone d'influence de la dépendance statistique induite. Pour démontrer l'efficacité de ces décompositions, nous avons été amenés à nous intéresser à deux types de problèmes : le débruitage et la déconvolution d'images. En ce qui concerne le débruitage, nous avons poursuivi deux buts principaux liés au cheminement de la thèse. Dans un premier temps, nous nous sommes attachés à montrer que la décomposition en arbre dual M-bandes apporte un gain significatif en terme de qualité, à la fois objective et subjective, par rapport à une décomposition en ondelettes classique, voire une décomposition dyadique en arbre dual. Dans un second temps, nous avons considéré le débruitage d'images multi-canaux pour lesquelles nous avons mis en place un estimateur statistique original reposant sur l'emploi du principe de Stein et permettant notamment de prendre en compte des voisinages quelconques (spatial, intercomposantes, inter-échelles, ...). Les problèmes de déconvolution d'images ont été appréhendés dans le cadre de méthodes variationnelles, en mettant en place un algorithme itératif, utilisant des outils récemment développés en analyse convexe. L'approche proposée permet de résoudre des problèmes inverses associés à des modèles probabilistes variés et elle est applicable à l'analyse M-bandes en arbre dual ainsi qu'à tout autre type de représentation à l'aide d'une trame.
|
44 |
Quelques développements récents en traitement du signalComon, Pierre 18 September 1995 (has links) (PDF)
Quelques développements récents en traitement du signal
|
45 |
La méthode des moments pour les matrices aléatoires avec application à la communication sans filMasucci, Antonia Maria 29 November 2011 (has links) (PDF)
Dans cette thèse, on étudie l'application de la méthode des moments pour les télécommunications. On analyse cette méthode et on montre son importance pour l'étude des matrices aléatoires. On utilise le cadre de probabilités libres pour analyser cette méthode. La notion de produit de convolution/déconvolution libre peut être utilisée pour prédire le spectre asymptotique de matrices aléatoires qui sont asymptotiquement libres. On montre que la méthode de moments est un outil puissant même pour calculer les moments/moments asymptotiques de matrices qui n'ont pas la propriété de liberté asymptotique. En particulier, on considère des matrices aléatoires gaussiennes de taille finie et des matrices de Vandermonde al ?eatoires. On développe en série entiére la distribution des valeurs propres de differents modèles, par exemple les distributions de Wishart non-centrale et aussi les distributions de Wishart avec des entrées corrélées de moyenne nulle. Le cadre d'inference pour les matrices des dimensions finies est suffisamment souple pour permettre des combinaisons de matrices aléatoires. Les résultats que nous présentons sont implémentés en code Matlab en générant des sous-ensembles, des permutations et des relations d'équivalence. On applique ce cadre à l'étude des réseaux cognitifs et des réseaux à forte mobilité. On analyse les moments de matrices de Vandermonde aléatoires avec des entrées sur le cercle unitaire. On utilise ces moments et les détecteurs à expansion polynomiale pour décrire des détecteurs à faible complexité du signal transmis par des utilisateurs mobiles à une station de base (ou avec deux stations de base) représentée par des réseaux linéaires uniformes.
|
46 |
Etude de matériaux diélectriques irradiés sous faisceau d'électrons par méthode Electro-Acoustique Pulsée (PEA)Nguyen, Xuan Truong 13 January 2014 (has links) (PDF)
Les matériaux diélectriques sont couramment utilisés comme isolants électriques dans le domaine spatial. Par nature, ces diélectriques sont susceptibles d'accumuler des charges électriques au cours de leur service. Dans certaines conditions critiques, ces charges internes ou de surface conduisent à des décharges électrostatiques. Pour comprendre ces phénomènes, un dispositif expérimental a été développé au laboratoire. Ce dernier permet de simuler les conditions d'irradiation électronique rencontrées dans l'espace. L'objectif de notre étude est de caractériser le comportement électrique des matériaux isolants irradiés par faisceau d'électrons, d'étudier les phénomènes de stockage et de transport de charge pour prévoir les décharges électrostatiques. Pour ces travaux, diverses techniques de caractérisation ont été implantées, le dispositif basé sur la technique Electro-Acoustique Pulsée (PEA) a été choisi. Il a été implanté dans l'enceinte d'irradiation. Cette technique consiste à détecter des ondes acoustiques générées par la charge d'espace sous l'effet coulombien d'une impulsion de champ électrique appliqué à l'échantillon. Elle permet de déterminer la distribution spatiale des charges injectées entre deux périodes d'irradiation et au cours des relaxations. La méthode PEA présente une limite de détection en particulier lorsque les charges sont implantées proche de la surface. Dans un premier temps, nous avons effectué une analyse des paramètres de traitement du signal que nous appelons le facteur d'étalement et le facteur de résolution. L'étude préliminaire post-irradiation à l'air sur des mesures expérimentales a montré que le choix du facteur de résolution est important pour l'analyse et l'interprétation du signal lorsque la charge est localisée près de la surface. Pour la suite, une comparaison avec le paramètre d'étalement utilisé dans certaine technique de déconvolution a été établie. Dans un deuxième temps, des mesures de distribution de charge d'espace sous vide ont été effectuées pour les Poly Tétra Fluoro Ethylène (PTFE) soumis à des irradiations dans la gamme de [10-100] keV. Les résultats obtenus sont comparés à des résultats théoriques. Ce travail nous permet d'envisager les améliorations nécessaires pour la détermination des charges d'espace in-situ.
|
47 |
Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse"Tran, Viet Dung 14 October 2013 (has links) (PDF)
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur
|
48 |
Etude et réalisation d'un prototype avancé de plateforme de mesure de micro et nanoforce par lévitation diamagnétiqueOster, Stephane 06 December 2012 (has links) (PDF)
La mesure de micro- et nano-force fait partie des mesures nécessaires à la caractérisation des interactionsou des propriétés mécaniques intervenant à l'échelle micrométrique. Dans cette optique,nous avons poursuivi un travail de conception initié au Laboratoire d'Automatique de Besançon en2002 pour développer un prototype avancé de capteur de micro- et nano-force par lévitation diamagnétique.Le transducteur force-déplacement de ce capteur est un microcapillaire rigide en verred'une dizaine de centimètres. Ce microcapillaire est en lévitation passive stable dans l'espace grâceà l'action conjuguée de forces magnétiques et diamagnétiques créant ainsi un ressort magnétiquevirtuel. La mesure d'une force externe appliquée à l'extrémité du capillaire est rendue possible grâceà la connaissance de la mesure du déplacement du capillaire et de la raideur du ressort magnétique.La plage de mesure de ce capteur varie entre ±40 μN avec une résolution de l'ordre du nanonewton.Les avancées présentées dans ce manuscrit ont porté sur la détermination des efforts diamagnétiquesengendrés par l'utilisation des plaques de graphite. Ce travail a permis une optimisation dudesign global du dispositif et son transfert à l'entreprise STIL SA. De plus un processus d'estimationpar déconvolution a été développé pour tenir compte du comportement dynamique du micro capillaireet des bruits de mesure du déplacement. Les domaines d'applications potentiels de ce dispositifconcernent notamment la caractérisation des interactions mécaniques quasi-statiques pouvant intervenirentre deux micro-objets et la détermination de propriétés mécaniques propres à un micro-objet.
|
49 |
Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètesYgouf, Marie 06 December 2012 (has links) (PDF)
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie.
|
50 |
Systeme d'imagerie hybride par codage de pupille.Diaz, Frédéric 06 May 2011 (has links) (PDF)
De nouveaux concepts d'imagerie permettent aux systèmes optiques d'être plus compacts et plus performants. Parmi ces nouvelles techniques, les systèmes d'imagerie hybrides par codage de pupille allient un système optique comprenant un masque de phase et un traitement numérique. La fonction de phase implantée sur le masque rend l'image insensible à un défaut du système optique, qui peut être une aberration ou de la défocalisation. Cet avantage est obtenu au prix d'une déformation connue de l'image qui est ensuite corrigée par un traitement numérique.L'étude des propriétés de ces systèmes a été effectuée en cherchant à augmenter la profondeur de champ d'un système d'imagerie. Un gain sur ce paramètre permet déjà d'envisager le relâchement de contraintes de conception optique telles que la courbure de champ, la défocalisation thermique, le chromatisme... Dans ces techniques d'imagerie, la prise en compte du bruit du capteur constitue l'un des paramètres critiques pour le choix et l'utilisation de méthodes de traitement d'image.Les travaux menés durant cette thèse ont permis de proposer une approche originale de conception conjointe de la fonction de phase du masque et de l'algorithme de restauration d'image. Celle-ci est basée sur un critère de rapport signal à bruit de l'image finale. Contrairement aux approches connues, ce critère montre qu'il n'est pas nécessaire d'obtenir une stricte invariance de la fonction de transfert du système optique. Les paramètres des fonctions de phase optimisés grâce à ce critère sont sensiblement différents de ceux usuellement proposés et conduisent à une amélioration significative de la qualité de l'image.Cette approche de conception optique a été validée expérimentalement sur une caméra thermique non refroidie. Un masque de phase binaire qui a été mis en œuvre en association avec un traitement numérique temps réel implémenté sur une carte GPU a permis d'augmenter la profondeur de champ de cette caméra d'un facteur 3. Compte-tenu du niveau de bruit important introduit par l'utilisation d'un capteur bolométrique, la bonne qualité des images obtenues après traitement démontre l'intérêt de l'approche de conception conjointe appliquée à l'imagerie hybride par codage de pupille.
|
Page generated in 0.099 seconds