Spelling suggestions: "subject:"deconvolution"" "subject:"convolution""
1 |
Estimation adaptative pour des problèmes inverses avec des applications à la division cellulaire / Adaptive estimation for inverse problem with application to cell divisionHoang, Van Hà 28 November 2016 (has links)
Cette thèse se divise en deux parties indépendantes. Dans la première, nous considérons un modèle stochastique individu-centré en temps continu décrivant une population structurée par la taille. La population est représentée par une mesure ponctuelle évoluant suivant un processus aléatoire déterministe par morceaux. Nous étudions ici l'estimation non-paramétrique du noyau régissant les divisions, sous deux schémas d'observation différents. Premièrement, dans le cas où nous obtenons l'arbre entier des divisions, nous construisons un estimateur à noyau avec une sélection adaptative de fenêtre dépendante des données. Nous obtenons une inégalité oracle et des vitesses de convergence exponentielles optimales. Deuxièmement, dans le cas où l'arbre de division n'est pas complètement observé, nous montrons que le processus microscopique renormalisé décrivant l'évolution de la population converge vers la solution faible d'une équation aux dérivés partielles. Nous proposons un estimateur du noyau de division en utilisant des techniques de Fourier. Nous montrons la consistance de l'estimateur. Dans la seconde partie, nous considérons le modèle de régression non-paramétrique avec erreurs sur les variables dans le contexte multidimensionnel. Notre objectif est d'estimer la fonction de régression multivariée inconnue. Nous proposons un estimateur adaptatif basé sur des noyaux de projection fondés sur une base d'ondelettes multi-index et sur un opérateur de déconvolution. Le niveau de résolution des ondelettes est obtenu par la méthode de Goldenshluger-Lepski. Nous obtenons une inégalité oracle et des vitesses de convergence optimales sur les espaces de Hölder anisotropes. / This thesis is divided into two independent parts. In the first one, we consider a stochastic individual-based model in continuous time to describe a size-structured population for cell divisions. The random point measure describing the cell population evolves as a piecewise deterministic Markov process. We address here the problem of nonparametric estimation of the kernel ruling the divisions, under two observation schemes. First, we observe the evolution of cells up to a fixed time T and we obtain the whole division tree. We construct an adaptive kernel estimator of the division kernel with a fully data-driven bandwidth selection. We obtain an oracle inequality and optimal exponential rates of convergence. Second, when the whole division tree is not completely observed, we show that, in a large population limit, the renormalized microscopic process describing the evolution of cells converges to the weak solution of a partial differential equation. We propose an estimator of the division kernel by using Fourier techniques. We prove the consistency of the estimator. In the second part, we consider the nonparametric regression with errors-in-variables model in the multidimensional setting. We estimate the multivariate regression function by an adaptive estimator based on projection kernels defined with multi-indexed wavelets and a deconvolution operator. The wavelet level resolution is selected by the method of Goldenshluger-Lepski. We obtain an oracle inequality and optimal rates of convergence over anisotropic Hölder classes.
|
2 |
Interprétation automatisée des spectres de masse de protéines obtenus par ionisation ElectrosprayEthier, Martin January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
Amélioration des algorithmes de reconstruction d'image pour la tomographie d'émission par collimation à trous larges et longsSimonnet, Richard 29 November 2010 (has links) (PDF)
Le projet CACAO - Caméra A Collimation Assistée par Ordinateur - a pour but d'améliorer la qualité des images scintigraphiques. Des collimateurs à trous plus larges et profonds sur les gamma caméras, ainsi qu'un mouvement de balayage supplémentaire dans le protocole d'acquisition permettraient d'améliorer à la fois la résolution spatiale et la sensibilité des caméras; mais cela implique l'utilisation de nouveaux algorithmes de reconstruction. Avant cette thèse, la reconstruction des images CACAO se basait sur un algorithme utilisant pour la déconvolution la transformée de Fourier rapide qui présente un avantage en terme de rapidité et a donné des résultats très intéressants. Cependant un travail basé sur la théorie de l'information nous fait penser qu'il est possible d'obtenir de meilleurs résultats. L'étape limitante du projet étant la déconvolution, le travail de thèse avait pour but d'étudier et d'améliorer cette étape avec de nouveaux algorithmes. Plusieurs algorithmes basés sur une déconvolution appelée minimale avec un traitement ligne par ligne de l'image et l'utilisation de programmation linéaire ont été développés et donnent de bons résultats dans plusieurs cas sur des données exactes. Nous avons ensuite appliqué cette idée au problème dans son ensemble, ce qui donne de bons résultats sur des données exactes et permet également de simplifier la reconstruction. Nous avons aussi effectué la dualisation de nos données qui permet de réduire le temps de calcul et de traiter de plus grandes images. Enfin, nous avons mis au point la déconvolution médiane qui se montre efficace pour des images bruitées.
|
4 |
Estimation non-paramétrique dans les problèmes inverses à opérateur bruitéVareschi, Thomas 06 December 2013 (has links) (PDF)
Cette thèse étudie l'effet de l'imprécision sur un opérateur intervenant dans la résolution d'un problème inverse. La problématique habituelle des problèmes inverses est l'approximation d'un signal d'entrée à partir de son image par un opérateur régularisant. A l'incertitude habituelle contaminant l'observation du signal de sortie, on ajoute cette erreur commise sur l'opérateur que l'on modélise par un processus Gaussien d'une certaine amplitude, potentiellement différente de la précédente. Nous nous intéressons plus particulièrement au cas où l'opérateur en question est un opérateur à noyau, lorsque ce dernier est lui même bruité. Ce modèle recouvre par exemple les cas de la convolution de Fourier périodique, de Laplace/Volterra, ou bien la convolution sphérique. \\Nous développons des procédures statistiques d'estimation dans chacun de ces cas, en traitant de manière adéquate la nouvelle erreur commise sur le noyau selon la forme de la matrice associée à un schéma de Galerkin. Plus précisément, nous étudions le risque quadratique dans le cas où cette dernière est diagonale, diagonale par blocs ou bien triangulaire inférieure et de Toeplitz. Dans chacun de ces cas, nous mettons en évidence de nouvelles vitesses de convergence faisant intervenir de manière explicite les deux paramètres d'incertitude (sur le signal de sortie et sur le noyau) et dont nous prouvons l'optimalité au sens minimax. Enfin, nous étudions spécifiquement le cas de la déconvolution sphérique en mettant à profit les needlets sphériques, sorte d'équivalent d'ondelettes sur la sphère, dans la construction d'une procédure qui traite ce même problème pour un risque en norme Lp.
|
5 |
Déconvolution d'images en radioastronomie centimétrique pour l'exploitation des nouveaux interféromètres radio : caractérisation du milieu non thermique des amas de galaxies / Deconvolution of images in centimeter-band radio astronomy for the exploitation of new radio interferometers : characterization of non thermal components in galaxy clustersDabbech, Arwa 28 April 2015 (has links)
Dans le cadre de la préparation du Square Kilometre Array (SKA), le plus large radio interféromètre au monde, de nouveaux défis de traitement d'images sont à relever. En effet, les données fournies par SKA auront un débit énorme, nécessitant ainsi un traitement en temps réel. En outre, grâce à sa résolution et sa sensibilité sans précédent, les observations seront dotées d'une très forte dynamique sur des champs de vue très grands. De nouvelles méthodes de traitement d'images robustes, efficaces et automatisées sont alors exigées. L'objectif de la thèse consiste à développer une nouvelle méthode permettant la restauration du modèle de l'image du ciel à partir des observations. La méthode est conçue pour l'estimation des images de très forte dynamique avec une attention particulière à restaurer les émissions étendues et faibles en intensité, souvent noyées dans les lobes secondaires de la PSF et le bruit. L'approche proposée est basée sur les représentations parcimonieuses, nommée MORESANE. L'image du ciel est modélisée comme étant la superposition de sources, qui constitueront les atomes d'un dictionnaire de synthèse inconnu, ce dernier sera estimé par des a priori d'analyses. Les résultats obtenus sur des simulations réalistes montrent que MORESANE est plus performant que les outils standards et très compétitifs avec les méthodes récemment proposées dans la littérature. MORESANE est appliqué sur des simulations d'observations d'amas de galaxies avec SKA1 afin d'investiguer la détectabilité du milieu non thermique intra-amas. Nos résultats indiquent que cette émission, avec SKA, sera étudiée jusqu'à l'époque de la formation des amas de galaxies massifs. / Within the framework of the preparation for the Square Kilometre Array (SKA), that is the world largest radio telescope, new imaging challenges has to be conquered. The data acquired by SKA will have to be processed on real time because of their huge rate. In addition, thanks to its unprecedented resolution and sensitivity, SKA images will have very high dynamic range over wide fields of view. Hence, there is an urgent need for the design of new imaging techniques that are robust and efficient and fully automated. The goal of this thesis is to develop a new technique aiming to reconstruct a model image of the radio sky from the radio observations. The method have been designed to estimate images with high dynamic range with a particular attention to recover faint extended emission usually completely buried in the PSF sidelobes of the brighter sources and the noise. We propose a new approach, based on sparse representations, called MORESANE. The radio sky is assumed to be a summation of sources, considered as atoms of an unknown synthesis dictionary. These atoms are learned using analysis priors from the observed image. Results obtained on realistic simulations show that MORESANE is very promising in the restoration of radio images; it is outperforming the standard tools and very competitive with the newly proposed methods in the literature. MORESANE is also applied on simulations of observations using the SKA1 with the aim to investigate the detectability of the intracluster non thermal component. Our results indicate that these diffuse sources, characterized by very low surface brightness will be investigated up to the epoch of massive cluster formation with the SKA.
|
6 |
Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes / Spatial resolution improvement of hyperspectral images by deconvolution and joint unmixing-deconvolutionSong, Yingying 13 December 2018 (has links)
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances / A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
|
7 |
Déconvolution aveugle et sismologie: estimation de la source sismique et des effets de siteSEBE, Olivier 24 July 2004 (has links) (PDF)
Depuis maintenant une vingtaine d'années, l'essor des télécommunications numériques a généré toute une panoplie de méthodes dites de déconvolution aveugle. Celles-ci permettent de séparer les différentes composantes d'un produit de convolution sans en avoir aucune connaissance a priori. L'objectif de ce travail de thèse a été d'étudier leurs modalités d'applications à la sismologie, afin notamment, d'estimer la fonction source du mouvement sismique ou les effets de site. L'adaptation de la déconvolution à phase minimale au signal de coda, nous a permis d'identifier les fonctions sources de deux types d'évènements sismiques : l'explosion sous-marine du Kursk (12/08/2000), d'une part et le séisme de Rambervillers (22/02/2003, Ml=5.4) d'autre part. Nous avons ainsi pu estimer respectivement la profondeur, la charge de l'explosion ainsi que la durée et le moment sismique du séisme. Grâce à cette méthode, nous avons montré qu'il est aussi possible d'estimer les effets de site en différentes stations du RAP pourtant séparées de plusieurs dizaines de kilomètres. Nous avons ensuite appliqué les méthodes de déconvolution aveugle par statistique d'ordre supérieur aux signaux de coda stationnarisés du séisme de Rambervillers. Ces méthodes ont l'avantage de supprimer l'hypothèse de phase minimale, contraignante et théoriquement non justifiée en sismologie. La fonction source obtenue grâce à la tricorrélation moyennée sur l'ensemble du réseau, est très similaire à celle obtenue après déconvolution par fonction de Green Empirique. Les exemples traités montrent que les méthodes développées ici sont très prometteuses et mériteraient d'être appliquées à de nombreux autres jeux de données.
|
8 |
Étude cinétique de la cristallisation du biopolymère poly lactque acide (PLLA)Skima, Hassine January 2015 (has links)
L’Acide (Poly Lactique) PLA, est un bio-polymère biocompatibles et biodégradables couramment très recherché. Il peut être produit à partir des ressources renouvelables. Ce matériau a attiré beaucoup d’attention afin de substituer des polymères d’origine fossile et pétrolière, dans des applications à haut tonnage tel que les emballages thermoformés et les bouteilles. Le PLA est un polyester rigide, ayant un module et une résistance à la traction élevée et une bonne transparence. En effet, le PLA ne peut être utilisé, même momentanément, pour des liquides chauds (e.g. verre de café, plat pour micro-onde) ou des produits devant être emballé à chaud (e.g. jus de fruit pasteurisé). Une solution pour pallier à ce problème est de cristalliser le PLA ce qui permettrait d’augmenter la température d’utilisation. Le contrôle de la cristallinité permet aussi de moduler la biodégradabilité en fonction des applications puisque celle-ci diminue en fonction du degré de cristallisation. Malheureusement, le PLA présente une cinétique de cristallisation intrinsèquement très faible limitant ainsi ses champs d’applications. La littérature fusionne des études qui traitent de la cristallisation du PLA. La plupart de ces études consiste à ajouter des additifs (i.e. agents de nucléation), conventionnels non-issus de ressources renouvelables, et à étudier leurs effets sur la cinétique de cristallisation. Toutefois, sur le plan fondamental, la cinétique de cristallisation du PLA reste encore mal comprise limitant ainsi l’optimisation et l’utilisation de nouveaux additifs bio-sourcés. Dans ce travail on étudie l'effet de la densité d'enchevêtrement des chaines sur la cinétique de la cristallisation du PLA. Les essais de cristallisation ont été réalisés pour différents échantillons (PLA/solvant) traités aux conditions isothermes dans la plage des températures entre 80 °C et 130 ° C. La vitesse de cristallisation dépend de la température du traitement, et aussi de la proportion du teneur en solvant. L'étude de la cristallisation du PLA faite dans ce travail est basée sur l'analyse des courbes de flux de chaleur DSC et les résultats des essais microscopiques. Nous avons préparé de nombreuses concentrations des échantillons allant de 12.5% PLA à 100% PLA), afin d’étudier l'effet de l’enchevêtrement des chaines moléculaires sur le taux de la cristallisation. Les expériences faites par la calorimétrie différentielle à balayage (DSC) ont montré une variation importante en comparant les tracés du flux de chaleur. Ainsi que les expériences microscopiques, ont montré aussi la variation des vitesses de croissance des cristaux pour chaque échantillon. Dans une seconde partie, des anisothemes de 2 °C/min, ont été reproduit pour les échantillons cristallisés afin d’étudier le comportement thermique du matériau. L'objectif principal de cette enquête est d'identifier les proportions des phases cristallines α' et α qui ont été observés à l’anisotherme. Les quantités cristallines de α et α' ont été évaluées en combinant les résultats de calorimétrie à balayage différentiel (DSC) et la diffraction des rayons X. On a constaté qu’en modifiant la température de fusion partielle dans la plage de 173 ° C à 173,8 ° C, des changements des proportions des pic sont observé. A cet effet, on a essayé de développer une méthode de quantification des phases cristallines par les calculs de déconvolution à partir des courbes thermiques de la DSC et les diffractogrammes des rayons X.
|
9 |
Correction de l'effet de volume partiel en tomographie d'émission par positrons chez le modelé animalGuillette, Nicolas January 2011 (has links)
La quantification de la concentration de radiotraceur en imagerie par tomographie d'émission par positrons (TEP) est capitale, que ce soit au niveau clinique, mais majoritairement dans le domaine de la recherche, notamment pour l'analyse pharmacocinétique, appliquée chez l'humain et l'animal. Parmi les corrections importantes en imagerie TEP, l'effet de volume partiel (EVP) est l'un des plus complexes à corriger. Il dépend de divers phénomènes physiques liés aux performances de l'appareil, à la reconstruction de l'image ainsi qu'aux propriétés de l'objet mesuré.La correction pour l'EVP est cruciale afin de pallier la faible résolution spatiale de l'appareil TEP. Les conséquences principales de l'EVP sont une sous-estimation de la concentration d'un radiotraceur dans les objets de petite taille ainsi qu'une difficulté à cerner correctement les contours de l'objet observé. De nombreuses méthodes appliquées directement sur les images reconstruites sont proposées dans la littérature et sont utilisées dans certains cas, mais aucun consensus sur une méthode n'a encore été établi jusqu'à présent. Ce travail porte sur la compréhension de la problématique de l'EVP par différents tests mathématiques et des simulations, ainsi que sur le développement et l'application d'une nouvelle méthode de correction appliquée à l'imagerie TEP. L'argument principal de cette technique de correction est que le défaut de la résolution spatiale est enregistré au niveau des détecteurs et la correction pour ce défaut devrait être effectuée avant la reconstruction de l'image. En outre, la technique proposée a l'avantage de tenir compte non seulement de la taille, mais également de la forme de l'objet selon les différentes projections, ce qui représente un bénéfice par rapport aux approches appliquées directement sur l'image.La correction est basée sur la déconvolution des projections mesurées par des fonctions d'étalement appropriées. Celles-ci sont obtenues expérimentalement à partir de mires de cylindres de différents diamètres. Pour tester les capacités de cette technique, l'étude s'est limitée à la correction d'objets initialement isolés par régions d'intérêt sur l'image.La technique a ensuite été testée sur des images de tumeurs isolées et du coeur chez le rat, obtenues par injection de [indice supérieur 18] F-fluorodésoxy-D-glucose (FDG). Les conséquences de la correction de l'EVP ont enfin été étudiées par l'application du modèle d'analyse pharmacocinétique compartimentale du FDG dans le coeur de rat.
|
10 |
Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérants / Cost functions for the estimation of acoustic filters in reverberant mixturesBenichoux, Alexis 14 October 2013 (has links)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indétermination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algorithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le minimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires. / This work is focused on the processing of multichannel and multisource audio signals. From an audio mixture of several audio sources recorded in a reverberant room, we wish to estimate the acoustic responses (a.k.a. mixing filters) between the sources and the microphones. To solve this inverse problem one need to take into account additional hypotheses on the nature of the acoustic responses. Our approach consists in first identifying mathematically the necessary hypotheses on the acoustic responses for their estimation and then building cost functions and algorithms to effectively estimate them. First, we considered the case where the source signals are known. We developed a method to estimate the acoustic responses based on a convex regularization which exploits both the temporal sparsity of the filters and the exponentially decaying envelope. Real-world experiments confirmed the effectiveness of this method on real data. Then, we considered the case where the sources signal are unknown, but statistically independent. The mixing filters can be estimated up to a permutation and scaling ambiguity. We brought up an exhaustive study of the theoretical conditions under which we can solve the indeterminacy, when the multichannel filters are sparse in the temporal domain. Finally, we started to analyse the hypotheses under which this algorithm could be extended to the joint estimation of the sources and the filters, and showed a first unexpected results : in the context of blind deconvolution with sparse priors, for a quite large family of regularised cost functions, the global minimum is trivial. Additional constraints on the source signals and the filters are needed.
|
Page generated in 0.0786 seconds