• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 3
  • 1
  • Tagged with
  • 13
  • 13
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Déconvolution aveugle et sismologie: estimation de la source sismique et des effets de site

SEBE, Olivier 24 July 2004 (has links) (PDF)
Depuis maintenant une vingtaine d'années, l'essor des télécommunications numériques a généré toute une panoplie de méthodes dites de déconvolution aveugle. Celles-ci permettent de séparer les différentes composantes d'un produit de convolution sans en avoir aucune connaissance a priori. L'objectif de ce travail de thèse a été d'étudier leurs modalités d'applications à la sismologie, afin notamment, d'estimer la fonction source du mouvement sismique ou les effets de site. L'adaptation de la déconvolution à phase minimale au signal de coda, nous a permis d'identifier les fonctions sources de deux types d'évènements sismiques : l'explosion sous-marine du Kursk (12/08/2000), d'une part et le séisme de Rambervillers (22/02/2003, Ml=5.4) d'autre part. Nous avons ainsi pu estimer respectivement la profondeur, la charge de l'explosion ainsi que la durée et le moment sismique du séisme. Grâce à cette méthode, nous avons montré qu'il est aussi possible d'estimer les effets de site en différentes stations du RAP pourtant séparées de plusieurs dizaines de kilomètres. Nous avons ensuite appliqué les méthodes de déconvolution aveugle par statistique d'ordre supérieur aux signaux de coda stationnarisés du séisme de Rambervillers. Ces méthodes ont l'avantage de supprimer l'hypothèse de phase minimale, contraignante et théoriquement non justifiée en sismologie. La fonction source obtenue grâce à la tricorrélation moyennée sur l'ensemble du réseau, est très similaire à celle obtenue après déconvolution par fonction de Green Empirique. Les exemples traités montrent que les méthodes développées ici sont très prometteuses et mériteraient d'être appliquées à de nombreux autres jeux de données.
2

Vitesses et procédures statistiques minimax dans des problèmes d'estimation et des tests d'hypothèses

Gayraud, Ghislaine 06 December 2007 (has links) (PDF)
Mes travaux s'articulent autour de trois thématiques. <br />La première thèmatique porte sur la résolution via l'approche minimax de divers problèmes d'estimation et de tests d'hypothèses dans un cadre non-paramétrique. <br />En statistique Bayésienne non-paramétrique, je me suis intéressée à un problème d'estimation d'ensembles à niveau. Les résultats obtenus résultent de l'étude des propriétés asymptotiques d'estimation Bayésienne d'ensembles à niveau. Ce sont des résultats généraux au sens où la consistance et la vitesse de convergence de l'estimateur Bayésien sont établies pour une large classe de lois a priori. <br />La troisième thématique concerne un problème d'estimation paramétrique dans un modèle de déconvolution aveugle bruitée : il s'agit de restituer la loi du signal entrant. La consistance ainsi que la distribution asymptotique d'une nouvelle procédure d'estimation sont établies.
3

Étude des artefacts de flou, ringing et aliasing en imagerie numérique : application à la restauration

Blanchet, Gwendoline 17 November 2006 (has links) (PDF)
Cette thèse aborde les problèmes liés à la formation des images numériques. L'étape d'échantillonnage nécessaire à la formation d'une image discrète à partir d'une image continue peut introduire différents types d'artefacts qui constituent des dégradations majeures de la qualité de l'image. La motivation principale de cette thèse a été l'étude de ces artefacts que sont le flou, le ringing et l'aliasing. Dans la première partie, nous rappelons tout d'abord le processus de formation des images numériques puis nous proposons des définitions de ces artefacts. Dans la deuxième partie, nous définissons une mesure conjointe du flou et du ringing dans le cadre d'un filtrage passe bas précédant l'échantillonnage. La troisième partie est dédiée à la détection automatique de ces artefacts dans les images. Enfin, en quatrième partie, la détection automatique est testée dans des applications concrètes de la restauration d'images: la déconvolution aveugle et le débruitage.
4

Imagerie astrophysique à la limite de diffraction des grands télescopes. Application à l'observation des objets froids.

Thiébaut, Eric 08 June 1994 (has links) (PDF)
L'interférométrie des tavelures permet de restaurer des images à la limite de résolution angulaire (quelques dizaines de millisecondes d'arc dans le visible) des plus grands télescopes terrestres malgré les effets de la turbulence atmosphérique. Je présente différentes méthodes de l'interférométrie des tavelures (méthodes de Labeyrie, de Knox et Thompson, du bispectre et de l'holographie auto-référencée) pour mettre en évidence la rigueur nécessaire à leur exploitation. L'application en astronomie visible de ces méthodes nécessite un détecteur à comptage de photons. J'explique comment je compense le défaut dit du "trou du comptage" de photons en intégrant des intercorrélations. Je propose une approche robuste pour résoudre le problème de la restauration d'image à partir de mesures très bruitées et/ou lacunaires. Je montre que cette approche générale peut être adaptée à la nature des mesures, en particulier à celles de l'interférométrie des tavelures. Cela me permet de dériver ou d'améliorer un certain nombre d'algorithmes : déconvolution, déconvolution en aveugle, restauration d'image en interférométrie des tavelures, etc. Ces algorithmes me permettent d'obtenir des résultats fiables et d'intérêt astrophysique : la découverte en Halpha de la base du jet émanant de T-Tau, la première mise en évidence du mouvement orbital d'une étoile double pré-séquence principale pour DF-Tau, la détection dans le visible du compagnon dit "infrarouge" de ZCMa et le sondage de l'atmosphère étendue de chi-Cygni dans les bandes du TiO.
5

Blind inverse imaging with positivity constraints / Inversion aveugle d'images avec contraintes de positivité

Lecharlier, Loïc 09 September 2014 (has links)
Dans les problèmes inverses en imagerie, on suppose généralement connu l’opérateur ou matrice décrivant le système de formation de l’image. De façon équivalente pour un système linéaire, on suppose connue sa réponse impulsionnelle. Toutefois, ceci n’est pas une hypothèse réaliste pour de nombreuses applications pratiques pour lesquelles cet opérateur n’est en fait pas connu (ou n’est connu qu’approximativement). On a alors affaire à un problème d’inversion dite “aveugle”. Dans le cas de systèmes invariants par translation, on parle de “déconvolution aveugle” car à la fois l’image ou objet de départ et la réponse impulsionnelle doivent être estimées à partir de la seule image observée qui résulte d’une convolution et est affectée d’erreurs de mesure. Ce problème est notoirement difficile et pour pallier les ambiguïtés et les instabilités numériques inhérentes à ce type d’inversions, il faut recourir à des informations ou contraintes supplémentaires, telles que la positivité qui s’est avérée un levier de stabilisation puissant dans les problèmes d’imagerie non aveugle. La thèse propose de nouveaux algorithmes d’inversion aveugle dans un cadre discret ou discrétisé, en supposant que l’image inconnue, la matrice à inverser et les données sont positives. Le problème est formulé comme un problème d’optimisation (non convexe) où le terme d’attache aux données à minimiser, modélisant soit le cas de données de type Poisson (divergence de Kullback-Leibler) ou affectées de bruit gaussien (moindres carrés), est augmenté par des termes de pénalité sur les inconnues du problème. La stratégie d’optimisation consiste en des ajustements alternés de l’image à reconstruire et de la matrice à inverser qui sont de type multiplicatif et résultent de la minimisation de fonctions coût “surrogées” valables dans le cas positif. Le cadre assez général permet d’utiliser plusieurs types de pénalités, y compris sur la variation totale (lissée) de l’image. Une normalisation éventuelle de la réponse impulsionnelle ou de la matrice est également prévue à chaque itération. Des résultats de convergence pour ces algorithmes sont établis dans la thèse, tant en ce qui concerne la décroissance des fonctions coût que la convergence de la suite des itérés vers un point stationnaire. La méthodologie proposée est validée avec succès par des simulations numériques relatives à différentes applications telle que la déconvolution aveugle d'images en astronomie, la factorisation en matrices positives pour l’imagerie hyperspectrale et la déconvolution de densités en statistique. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
6

Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif / Sparse blind deconvolution in ultrasound imaging using an adaptative CLEAN algorithm

Chira, Liviu-Teodor 17 October 2013 (has links)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs. / The ultrasonic imaging knows a continuous advance in the aspect of increasing the resolution for helping physicians to better observe and distinguish the examined tissues. There is already a large range of techniques to get the best results. It can be found also hardware or signal processing techniques. This work was focused on the post-processing techniques of blind deconvolution in ultrasound imaging and it was implemented an algorithm that works in the time domain and uses the envelope signal as input information for it. It is a blind deconvolution technique that is able to reconstruct reflectors and eliminate the diffusive speckle noise. The main steps are: the estimation of the point spread function (PSF) in a blind way, the estimation of reflectors using the assumption of sparsity for the examined environment and the reconstruction of the image by reconvolving the sparse tissue with an ideal PSF. The proposed method was tested in comparison with some classical techniques in medical imaging reconstruction using synthetic signals, real ultrasound sequences (1D) and ultrasound images (2D) and also using two types of statistically different images. The method is suitable for images that represent tissue with a reduced amount or average scatters. Also, the technique offers a lower execution time than direct competitors.
7

Traitement Aveugle de Signaux Biomédicaux

Kachenoura, Amar 06 July 2006 (has links) (PDF)
Ce mémoire aborde l'analyse et le traitement de données biomédicales. L'objectif est d'extraire des informations nécessaires au diagnostic de certaines pathologies. Plus précisément, ce rapport de thèse peut être scindé en deux parties. La première concerne l'élaboration d'un système ambulatoire multi-varié qui permette d'explorer les fonctions neurologiques nécessaires au diagnostic de différents troubles du sommeil. Des méthodes de séparation aveugle de sources, développées pour des mélanges instantanés, ont été étudiées et appliquées pour répondre à ce problème. La seconde partie porte sur l'étude du système nerveux autonome. Le but est de caractériser le profile sympathique et parasympathique des patients. Face aux différents problèmes mathématiques rencontrés, nous avons élaboré de nouvelles méthodes d'estimation de phase. Ces dernières ont fait l'objet d'une étude comparative au travers de simulations numériques.
8

Estimation non-paramétrique dans les problèmes inverses à opérateur bruité

Vareschi, Thomas 06 December 2013 (has links) (PDF)
Cette thèse étudie l'effet de l'imprécision sur un opérateur intervenant dans la résolution d'un problème inverse. La problématique habituelle des problèmes inverses est l'approximation d'un signal d'entrée à partir de son image par un opérateur régularisant. A l'incertitude habituelle contaminant l'observation du signal de sortie, on ajoute cette erreur commise sur l'opérateur que l'on modélise par un processus Gaussien d'une certaine amplitude, potentiellement différente de la précédente. Nous nous intéressons plus particulièrement au cas où l'opérateur en question est un opérateur à noyau, lorsque ce dernier est lui même bruité. Ce modèle recouvre par exemple les cas de la convolution de Fourier périodique, de Laplace/Volterra, ou bien la convolution sphérique. \\Nous développons des procédures statistiques d'estimation dans chacun de ces cas, en traitant de manière adéquate la nouvelle erreur commise sur le noyau selon la forme de la matrice associée à un schéma de Galerkin. Plus précisément, nous étudions le risque quadratique dans le cas où cette dernière est diagonale, diagonale par blocs ou bien triangulaire inférieure et de Toeplitz. Dans chacun de ces cas, nous mettons en évidence de nouvelles vitesses de convergence faisant intervenir de manière explicite les deux paramètres d'incertitude (sur le signal de sortie et sur le noyau) et dont nous prouvons l'optimalité au sens minimax. Enfin, nous étudions spécifiquement le cas de la déconvolution sphérique en mettant à profit les needlets sphériques, sorte d'équivalent d'ondelettes sur la sphère, dans la construction d'une procédure qui traite ce même problème pour un risque en norme Lp.
9

Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variables

Mourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
10

Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation.

Soulez, Ferréol 11 December 2008 (has links) (PDF)
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.<br />L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.<br /><br />Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).<br /><br />Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.

Page generated in 0.0808 seconds