Spelling suggestions: "subject:"deconvolution"" "subject:"convolution""
51 |
Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérantsBenichoux, Alexis 14 October 2013 (has links) (PDF)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indétermination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algorithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le minimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires.
|
52 |
Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètes / New method of multispectral image post-processing based on an instrument model for high contrast imaging systems : Application to exoplanet detectionYgouf, Marie 06 December 2012 (has links)
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie. / This research focuses on high contrast multispectral imaging in the view of directly detecting and characterizing Exoplanets. In this framework, the development of innovative image post-processing methods is essential in order to eliminate the quasi-static speckles in the final image, which remain the main limitation for high contrast. Even though the residual instrumental aberrations are responsible for these speckles, no post-processing method currently uses a model of coronagraphic imaging, which takes these aberrations as parameters. The research approach adopted includes the development of a method, in a Bayesian Framework, based on an analytical coronagraphic imaging model and an inversion algorithm, to estimate jointly the instrumental aberrations and the object of interest, i.e. the exoplanets, in order to separate properly these two contributions. The instrumental aberration estimation directly from focal plane images, also named phase retrieval, is the most difficult step because the model of on-axis instrumental response, of which these aberrations depend on, is highly non-linear. The development and the study of an approximate model of coronagraphic imaging thus proved very useful to understand the problem at hand and inspired me some minimization strategies. I finally tested my method and estimated its performances in terms of robustness and exoplanets detection. For this, I applied it to simulated images and I studied the effect of the different parameters of the imaging model I used. The findings from this research provide evidence that this method, in association with an optimization scheme based on a good knowledge of the problem at hand, can operate in a relatively robust way, despite the difficulties of the phase retrieval step. In particular, it allows the detection of exoplanets in the case of simulated images with a detection level compliant with the goal of the SPHERE instrument. The next steps will be to verify the efficiency of this new method on simulated images using more realistic coronagraphs and on real images from the SPHERE instrument. In addition, the extension of the method for the characterization of exoplanets is relatively easy, as its extension to the study of larger objects such as circumstellar disks. Finally, the results of this work will also bring some crucial insights for the development of future instruments. In particular, the Extremely Large Telescopes have already risen some technical challenges for the next generation of planet finders, which may partly be addressed by an image processing method based on an imaging model.
|
53 |
Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variablesMourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
|
54 |
Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse" / Reconstruction and segmentation of electron tomography by “inverse problem” approachTran, Viet Dung 14 October 2013 (has links)
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur / In oil refining industry, morphological measurements of particles have become an essential part in the characterization of catalyst supports. Through these parameters, one can infer the specific physicochemical properties of the studied materials. One of the main acquisition techniques is electron tomography (or nanotomography). 3D volumes are reconstructed from sets of projections from different angles made by a transmission electron microscope (TEM). This technique provides a real three-dimensional information at the nanometric scale. Projections are obtained by tilting the specimen port in the microscope. The tilt mechanism has two drawbacks: a rather limited angular range and mechanical shifts, which are difficult to deal with, knowing that these shifts must be corrected after the acquisition by an alignment of projections. This alignment step is a prerequisite for the tomographic reconstruction. Our work deals with a wholly "inverse problem" approach for aligning projections and reducing artifacts due to missing projections by introducing in a relevant way certain a priori informations. These informations are jointly based on the physics of acquisition (physical nature of the TEM images, geometry and specific limitation on the acquisition of projections...) and on the nature of objects to be reconstructed (number and distribution of phases, morphological criteria such as connectivity ...). This approach is described in an algorithmic way. The implementation of this algorithm shows higher precision reconstruction and smaller computation time compared to earlier techniques. We successfully tested our method for real projections of different catalyst supports
|
55 |
Etude et réalisation d'un prototype avancé de plateforme de mesure de micro et nanoforce par lévitation diamagnétique / Study and realization of an advanced prototype of micro and nanoforce measuring platform by diamagnetic levitationOster, Stéphane 06 December 2012 (has links)
La mesure de micro- et nano-force fait partie des mesures nécessaires à la caractérisation des interactionsou des propriétés mécaniques intervenant à l’échelle micrométrique. Dans cette optique,nous avons poursuivi un travail de conception initié au Laboratoire d’Automatique de Besançon en2002 pour développer un prototype avancé de capteur de micro- et nano-force par lévitation diamagnétique.Le transducteur force-déplacement de ce capteur est un microcapillaire rigide en verred’une dizaine de centimètres. Ce microcapillaire est en lévitation passive stable dans l’espace grâceà l’action conjuguée de forces magnétiques et diamagnétiques créant ainsi un ressort magnétiquevirtuel. La mesure d’une force externe appliquée à l’extrémité du capillaire est rendue possible grâceà la connaissance de la mesure du déplacement du capillaire et de la raideur du ressort magnétique.La plage de mesure de ce capteur varie entre ±40 μN avec une résolution de l’ordre du nanonewton.Les avancées présentées dans ce manuscrit ont porté sur la détermination des efforts diamagnétiquesengendrés par l’utilisation des plaques de graphite. Ce travail a permis une optimisation dudesign global du dispositif et son transfert à l’entreprise STIL SA. De plus un processus d’estimationpar déconvolution a été développé pour tenir compte du comportement dynamique du micro capillaireet des bruits de mesure du déplacement. Les domaines d’applications potentiels de ce dispositifconcernent notamment la caractérisation des interactions mécaniques quasi-statiques pouvant intervenirentre deux micro-objets et la détermination de propriétés mécaniques propres à un micro-objet. / The measurement of micro- and nano-force is necessary to characterize the mechanical propertiesand interactions occurring at micrometer scale. In this context, we work on an advanced design ofmicro- and nano-force sensor based on diamagnetic levitation initiated at Laboratoire d’Automatiquede Besançon in 2002. The force-displacement transducer of this sensor is a ten centimeter long glassmicro capillary. This micro capillary levitates passively and stably thanks to the combined action ofmagnetic and diamagnetic forces which create a virtual magnetic spring. Measuring an external forceapplied to the end of the capillary is made possible through knowledge of the capillary displacementand the stiffness of magnetic spring. The measuring range of the sensor varies between ±40 μN witha resolution about a nanonewton. Advances presented in this thesis focused on the determinationof the diamagnetic forces generated by the use of graphite plates. This work has allowed us tooptimize the overall design of the device and transfer it to our industrial partner STIL SA. Moreovera deconvolution estimation process was developed to take into account the dynamic behavior of themicro capillary and measurement noises. Potential fields of application of this device concern themechanical characterization of quasistatic interactions which may occur between two micro-objectsand the determination of intrinsic mechanical properties of a micro-object
|
56 |
Déconvolution adaptative pour le contrôle non destructif par ultrasons / Adaptative deconvolution for ultrasonic non destructive testingCarcreff, Ewen 28 November 2014 (has links)
Nous nous intéressons au contrôle non destructif par ultrasons des matériaux industriels. En pratique, les signaux réceptionnés par le transducteur ultrasonore sont analysés pour détecter les discontinuités de la pièce inspectée. L'analyse est néanmoins rendue difficile par l'acquisition numérique, les effets de la propagation ultrasonore et la superposition des échos lorsque les discontinuités sont proches. La déconvolution parcimonieuse est une méthode inverse qui permet d'aborder ce problème afin de localiser précisément les discontinuités. Ce procédé favorise les signaux parcimonieux, c'est à dire ne contenant qu'un faible nombre de discontinuités. Dans la littérature, la déconvolution est généralement abordée sous l'hypothèse d'un modèle invariant en fonction de la distance de propagation, modalité qui n'est pas appropriée ici car l'onde se déforme au cours de son parcours et en fonction des discontinuités rencontrées. Cette thèse développe un modèle et des méthodes associées qui visent à annuler les dégradations dues à l'instrumentation et à la propagation ultrasonore, tout en résolvant des problèmes de superposition d'échos. Le premier axe consiste à modéliser la formation du signal ultrasonore en y intégrant les phénomènes propres aux ultrasons. Cette partie permet de construire un modèle linéaire mais non invariant, prenant en compte l'atténuation et la dispersion. L'étape de modélisation est validée par des acquisitions avec des matériaux atténuants. La deuxième partie de cette thèse concerne le développement de méthodes de déconvolution efficaces pour ce problème, reposant sur la minimisation d'un critère des moindres carrés pénalisé par la pseudo-norme L0. Nous avons développé des algorithmes d'optimisation spécifiques, prenant en compte, d'une part, un modèle de trains d'impulsions sur-échantillonné par rapport aux données, et d'autre part le caractère oscillant des formes d'onde ultrasonores. En utilisant des données synthétiques et expérimentales, ces algorithmes associés à un modèle direct adapté aboutissent à de meilleurs résultats comparés aux approches classiques pour un coût de calcul maîtrisé. Ces algorithmes sont finalement appliqués à des cas concrets de contrôle non destructif où ils démontrent leur efficacité. / This thesis deals with the ultrasonic non destructive testing of industrial parts. During real experiments, the signals received by the acoustic transducer are analyzed to detect the discontinuities of the part under test. This analysis can be a difficult task due to digital acquisition, propagation effects and echo overlapping if discontinuities are close. Sparse deconvolution is an inverse method that aims to estimate the precise positions of the discontinuities. The underlying hypothesis of this method is a sparse distribution of the solution, which means there are a few number of discontinuities. In the literature, deconvolution is addressed by a linear time-invariant model as a function of propagation distance, which in reality does not hold.The purpose of this thesis is therefore to develop a model and associated methods in order to cancel the effects of acquisition, propagation and echo overlapping. The first part is focused on the direct model development. In particular, we build a linear time-variant model that takes into account dispersive attenuation. This model is validated with experimental data acquired from attenuative materials. The second part of this work concerns the development of efficient sparse deconvolution algorithms, addressing the minimization of a least squares criterion penalized by a L0 pseudo-norm. Specific algorithms are developed for up-sampled deconvolution, and more robust exploration strategies are built for data containing oscillating waveforms. By using synthetic and experimental data, we show that the developed methods lead to better results compared to standard approaches for a competitive computation time. The proposed methods are then applied to real non destructive testing problems where they confirm their efficiency.
|
57 |
Active learning et visualisation des données d'apprentissage pour les réseaux de neurones profonds / Active learning and input space analysis for deep networksDucoffe, Mélanie 12 December 2018 (has links)
Notre travail est présenté en trois parties indépendantes. Tout d'abord, nous proposons trois heuristiques d'apprentissage actif pour les réseaux de neurones profonds : Nous mettons à l'échelle le `query by committee' , qui agrège la décision de sélectionner ou non une donnée par le vote d'un comité. Pour se faire nous formons le comité à l'aide de différents masques de dropout. Un autre travail se base sur la distance des exemples à la marge. Nous proposons d'utiliser les exemples adversaires comme une approximation de la dite distance. Nous démontrons également des bornes de convergence de notre méthode dans le cas de réseaux linéaires. L’usage des exemples adversaires ouvrent des perspectives de transférabilité d’apprentissage actif d’une architecture à une autre. Puis, nous avons formulé une heuristique d'apprentissage actif qui s'adapte tant au CNNs qu'aux RNNs. Notre méthode sélectionne les données qui minimisent l'énergie libre variationnelle. Dans un second temps, nous nous sommes concentrés sur la distance de Wasserstein. Nous projetons les distributions dans un espace où la distance euclidienne mimique la distance de Wasserstein. Pour se faire nous utilisons une architecture siamoise. Également, nous démontrons les propriétés sous-modulaires des prototypes de Wasserstein et comment les appliquer à l'apprentissage actif. Enfin, nous proposons de nouveaux outils de visualisation pour expliquer les prédictions d'un CNN sur du langage naturel. Premièrement, nous détournons une stratégie d'apprentissage actif pour confronter la pertinence des phrases sélectionnées aux techniques de phraséologie les plus récentes. Deuxièmement, nous profitons des algorithmes de déconvolution des CNNs afin de présenter une nouvelle perspective sur l'analyse d'un texte. / Our work is presented in three separate parts which can be read independently. Firstly we propose three active learning heuristics that scale to deep neural networks: We scale query by committee, an ensemble active learning methods. We speed up the computation time by sampling a committee of deep networks by applying dropout on the trained model. Another direction was margin-based active learning. We propose to use an adversarial perturbation to measure the distance to the margin. We also establish theoretical bounds on the convergence of our Adversarial Active Learning strategy for linear classifiers. Some inherent properties of adversarial examples opens up promising opportunity to transfer active learning data from one network to another. We also derive an active learning heuristic that scales to both CNN and RNN by selecting the unlabeled data that minimize the variational free energy. Secondly, we focus our work on how to fasten the computation of Wasserstein distances. We propose to approximate Wasserstein distances using a Siamese architecture. From another point of view, we demonstrate the submodular properties of Wasserstein medoids and how to apply it in active learning. Eventually, we provide new visualization tools for explaining the predictions of CNN on a text. First, we hijack an active learning strategy to confront the relevance of the sentences selected with active learning to state-of-the-art phraseology techniques. These works help to understand the hierarchy of the linguistic knowledge acquired during the training of CNNs on NLP tasks. Secondly, we take advantage of deconvolution networks for image analysis to present a new perspective on text analysis to the linguistic community that we call Text Deconvolution Saliency.
|
58 |
Acquisition comprimée multi-longueur d'onde et son application en radioastronomie / Multichannel Compressed Sensing and its Application in RadioastronomyJiang, Ming 10 November 2017 (has links)
La nouvelle génération d’instrument d’interféromètre radio, tels que LOFAR et SKA, nous permettra de construire des images radio à haute résolution angulaire et avec une bonne sensibilité. L’un des problèmes majeurs de l’imagerie interférométrie est qu’il s’agit d’un problème inverse mal posé car seulement quelques coefficients de Fourier (visibilités) peuvent être mesurés par un interféromètre radio. La théorie de l’Acquisition Comprimée (Compressed Sensing) nous permet d’envisager ce problème sous un autre angle et son efficacité pour la radioastronomie a été montrée. Cette thèse se concentre sur la méthodologie de la reconstruction de données à l’Acquisition Comprimée Multicanaux et son application en radioastronomie. Par exemple, les transitoires radios sont un domaine de recherche actif en radioastronomie, mais leur détection est un problème difficile en raison de la faible résolution angulaire et des observations à faible rapport signal-sur-bruit. Pour résoudre ce problème, nous avons exploité la parcimonie de l’information temporelle des transitoires radios et nous avons proposé une méthode de reconstruction spatio-temporelle pour détecter efficacement les sources radios. Les expériences ont démontré la force de cette méthode de reconstruction en comparaison avec les méthodes de l’état de l’art. Une deuxième application concerne l’imagerie interférométrie radio à multi-longueur d’onde dans lesquelles les données sont dégradées différemment en termes de longueur d’onde car la réponse instrumentale varie en fonction de la longueur d’onde. Basé sur le modèle de mélange de sources, un nouveau modèle est proposé pour effectuer de manière jointe une Séparation de Sources en Aveugle et une déconvolution (SSAD). Le problème SSAD n’est pas seulement non-convexe mais aussi mal conditionné en raison des noyaux de convolution. Notre méthode proposée DecGMCA, qui utilise un a priori de parcimonie et emploie un scénario de moindre carré alternatif, est un algorithme efficace pour aborder simultanément les problèmes de déconvolution et de SSA. Les expériences ont démontré que notre approche jointe permet d’obtenir de meilleurs résultats comparée à une analyse standard consistant en une application séquentielle d’une déconvolution suivie d’une séparation de sources en aveugle. / The new generation of radio interferometer instruments, such as LOFAR and SKA, will allow us to build radio images with very high angular resolution and sensitivity. One of the major problems in interferometry imaging is that it involves an ill-posed inverse problem, because only a few Fourier components (visibility points) can be acquired by a radio interferometer. Compressed Sensing (CS) theory is a paradigm to solve many underdetermined inverse problems and has shown its strength in radio astronomy. This thesis focuses on the methodology of Multichannel Compressed Sensing data reconstruction and its application in radio astronomy. For instance, radio transients are an active research field in radio astronomy but their detection is a challenging problem because of low angular resolution and low signal-to-noise observations. To address this issue, we investigated the sparsity of temporal information of radio transients and proposed a spatial-temporal sparse reconstruction method to efficiently detect radio sources. Experiments have shown the strength of this sparse recovery method compared to the state-of-the-art methods. A second application is concerned with multi-wavelength radio interferometry imaging in which the data are degraded differently in terms of wavelength due to the wavelength-dependent varying instrumental beam. Based on a source mixture model, a novel Deconvolution Blind Source Separation (DBSS) model is proposed. The DBSS problem is not only non-convex but also ill conditioned due to convolution kernels. Our proposed DecGMCA method, which benefits from a sparsity prior and leverages an alternating projected least squares, is an efficient algorithm to tackle simultaneously the deconvolution and BSS problems. Experiments have shown that taking into account joint deconvolution and BSS gives much better results than applying sequential deconvolution and BSS.
|
59 |
Inverse Problems of Deconvolution Applied in the Fields of Geosciences and Planetology / Problèmes inverses de déconvolution appliqués aux Géosciences et à la PlanétologieMeresescu, Alina-Georgiana 25 September 2018 (has links)
Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaine de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences. / The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community.
|
60 |
Systeme d'imagerie hybride par codage de pupille / Hybrid imaging system with wavefront codingDiaz, Frédéric 06 May 2011 (has links)
De nouveaux concepts d’imagerie permettent aux systèmes optiques d’être plus compacts et plus performants. Parmi ces nouvelles techniques, les systèmes d’imagerie hybrides par codage de pupille allient un système optique comprenant un masque de phase et un traitement numérique. La fonction de phase implantée sur le masque rend l’image insensible à un défaut du système optique, qui peut être une aberration ou de la défocalisation. Cet avantage est obtenu au prix d’une déformation connue de l’image qui est ensuite corrigée par un traitement numérique.L’étude des propriétés de ces systèmes a été effectuée en cherchant à augmenter la profondeur de champ d’un système d’imagerie. Un gain sur ce paramètre permet déjà d’envisager le relâchement de contraintes de conception optique telles que la courbure de champ, la défocalisation thermique, le chromatisme… Dans ces techniques d’imagerie, la prise en compte du bruit du capteur constitue l’un des paramètres critiques pour le choix et l’utilisation de méthodes de traitement d’image.Les travaux menés durant cette thèse ont permis de proposer une approche originale de conception conjointe de la fonction de phase du masque et de l’algorithme de restauration d’image. Celle-ci est basée sur un critère de rapport signal à bruit de l’image finale. Contrairement aux approches connues, ce critère montre qu’il n’est pas nécessaire d’obtenir une stricte invariance de la fonction de transfert du système optique. Les paramètres des fonctions de phase optimisés grâce à ce critère sont sensiblement différents de ceux usuellement proposés et conduisent à une amélioration significative de la qualité de l’image.Cette approche de conception optique a été validée expérimentalement sur une caméra thermique non refroidie. Un masque de phase binaire qui a été mis en œuvre en association avec un traitement numérique temps réel implémenté sur une carte GPU a permis d’augmenter la profondeur de champ de cette caméra d’un facteur 3. Compte-tenu du niveau de bruit important introduit par l’utilisation d’un capteur bolométrique, la bonne qualité des images obtenues après traitement démontre l’intérêt de l’approche de conception conjointe appliquée à l’imagerie hybride par codage de pupille. / New imaging techniques allow better and smaller systems. Among these new techniques, hybrid imaging systems with wavefront coding includes an optical system with a phase mask and a processing step. The phase function of the mask makes the system insensitive to a fault of the optical system, such as an aberration or a defocus. The price of this advantage is a deformation of the image acquired by a sensor, which is then processed. The study of the properties of these hybrid imaging systems has been completed by increasing the depth of field of an imaging system, which allows to relax some design constraints such as field curvature, thermal defocus, chromaticism… In these imaging techniques, the consideration the noise of the sensor is one the critical parameters when choosing the image processing method.The work performed during this thesis allowed to proposed an original approach for the cross-conception of the phase function of the mask and the processing step. This approach is based on a signal-to-noise criterion. Unlike known approaches, this criterion shows that a strict insensitivity of the modulation transfer function of the optics is not required. The parameters of the phase functions optimized thanks to this criterion are noticeably different from those usually proposed and lead to a significant increase of the image quality.This cross-conception approach has been validated experimentally on an uncooled thermal camera. A binary phase mask associated with a real-time processing implemented on a GPU allowed to increase the depth of field of this camera by a factor 3. Considering the important level of noise introduced by the use of a bolometric sensor, the good quality of the processed image shows the interest of the cross-conception for hybrid imaging system with wavefront coding.
|
Page generated in 0.1045 seconds