• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 23
  • 22
  • 20
  • 16
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 268
  • 43
  • 42
  • 38
  • 34
  • 34
  • 31
  • 31
  • 30
  • 27
  • 26
  • 23
  • 23
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
62

Uranium(VI) uptake by geological materials, characterisation by luminescence spectroscopy

Williams, Mark January 2017 (has links)
Many of the wastes associated with the nuclear fuel cycle are toxic to the biosphere; advancing the use of high resolution spectroscopy applied to these materials will provide the chemical speciation of the interaction between nuclear waste and geological material, improving confidence in a permanent disposal method and informing clean-up operations. Luminescence spectroscopy of uranyl(VI) is a well-established technique for the molecular speciation of uranium-mineral interactions. This work explores the use of both micro- and macroscopic luminescence spectroscopy to expose uranyl(VI) speciative heterogeneity in a range of minerals which have been exposed to uranyl(VI) salt solutions. A comprehensive review of the available literature on the interaction of uranyl(VI) with a range of geological media is assessed and compared. The review finds considerable ambiguity in the speciation of uranyl(VI) at the mineral water interface. A database reporting the multi parametric luminescence properties of uranyl(VI) with silica gel, quartz, bayerite, boehmite, muscovite, kaolinite and montmorillonite (SWy-2 and STx-1b) is presented and discussed. Although some of the results are consistent with previously reported values, many newly identified species are reported and their identification speculated. Parallel factor analysis is used to deconvolute the excitationemission matrix of uranyl(VI) sorbed to silica gel between pH 3 and pH 10. The results are used to identify the spectroscopic properties of complexes >(SiO)2UO2 and >(SiO)2UO2OH and thus new complexation coefficients (log(K)) for their formation with the silica gel surface are determined, log(K1) = 9.22 ± 0.02 and log(K2) = 3.45 ± 0.01, respectively. The investigation also provides insight into the fundamental properties of uranyl(VI) excitation pathways, which are not yet fully understood. Confocal microscopy and phosphorescent lifetime image mapping (PLIM) is used to expose the sub-micron heterogeneity of uranyl(VI) sorption complexation across mineral surfaces of silica gel, bayerite and montmorillonite (STx-1b). The results suggest that changes in the uranyl(VI) lifetime can be used to observe and understand submicron changes in uranyl(VI) complexation at hitherto unknown temporal resolution.
63

Odstranění rozmazání pomocí dvou snímků s různou délkou expozice / Odstranění rozmazání pomocí dvou snímků s různou délkou expozice

Sabo, Jozef January 2012 (has links)
In the presented work we study methods of image deblurring using two images of the same scene with different exposure times, focusing on two main approach categories, the so called deconvolution and non-deconvolution methods. We present theoretical backgrounds on both categories and evaluate their limitations and advantages. We dedicate one section to a comparison of both method categories on test data (images) for which we use a MATLAB implementation of the methods. We also compare the effectiveness of said methods against the results of a selected single- image de-noising algorithm. We do not focus at computational efficiency of algorithms and work with grayscale images only.
64

SYNTHESIS OF SINGLE-HOLE VIBRATION WAVEFORMS FROM A MINING BLAST

Li, Lifeng 01 January 2018 (has links)
In mining engineering, blast-induced ground vibration has become one of the major concerns when production blasts are conducted, especially when the mining areas and the blast sites are near inhabited areas or infrastructure of interest. To comply with regulations, a vibration monitoring program should be developed for each mining operation. The vibration level, which is usually indicated by the peak particle velocity (PPV) of the vibration waveform, should fall below the maximum allowable values. Ideally, when blasting is near structures of interest (power towers, dams, houses, etc.), the vibration level (PPV) should be predicted prior to the actual production blasts. There are different techniques to predict the PPV, one in particular is the signature hole technique. This technique is based on signals and systems theory and uses a mathematical operation called convolution to assess the waveform of the production blast. This technique uses both the vibration waveform of an isolated hole and the timing function given by the timing used in the blast. The signature hole technique requires an isolated single-hole waveform to create a prediction. Sometimes this information is difficult to acquire, as it requires the synthesis of a single-hole vibration waveform from a production blast vibration signal. The topic of ground vibrations from mining blasts, and more specifically the synthesis of a single-hole vibration waveform, has been studied by researchers in past decades, but without any concrete success. This lack of success may be partially due to the complexity and difficulty of modelling and calculation. However, this inverse methodology can be very meaningful if successfully applied in blasting engineering. It provides a convenient and economical way to obtain the single-hole vibration waveform and make the prediction of a production blast waveform easier. This dissertation research involves the theories of deconvolution, linear superposition, and Fourier phases to recover single-hole vibration waveforms from a production waveform. Preliminary studies of deconvolution included spectral division deconvolution and Wiener filtering deconvolution. In addition to the adaptation of such methodologies to the blast vibrations problems, the effectiveness of the two deconvolution methods by the influence of delay interval and number of holes is also discussed. Additionally, a new statistical waveform synthesis method based on the theories of linear superposition, properties of Fourier phase, and group delays was developed. The validation of the proposed methodology was also conducted through several field blasting tests. Instead of synthesizing one normalized single-hole vibration waveform by deconvolution, the proposed statistical waveform synthesis methodology generates a different single-hole vibration waveform for each blast hole. This method is more effective and adaptable when synthesizing single-hole vibration waveforms. Recommendations for future work is also provided to improve the methodology and to study other inverse problems of blast vibrations.
65

High Level Synthesis Of An Image Processing Algorithm For Cancer Detection

Bilhanan, Anuleka 29 March 2004 (has links)
There is a crucial need for real time detection and diagnosis in digital mammography. To date, most computer aided analysis applications are software driven and normally require long processing times. Digital filtering is often the initial stage in processing mammograms for both automated detection and tissue characterization, which relies on Fourier analysis. In this research the main objective is to lay the groundwork for converting software driven mammography applications to hardware implementations by using Application-Specific Integrated Circuits (ASICs). The long-term goal is to increase processing speed. This research focuses on achieving the main objective by using one specific mammographic image processing application for demonstration purposes. ASICs offer high performance at the price of high development costs and are suitable for real time diagnosis. In this research, we develop a behavioral VHDL model of a specific filtering algorithm. Automatic Design Instantiation System (AUDI)8, a high level synthesis tool is used to automatically synthesize an RTL design from the model. A floating point behavioral component library is developed to support the synthesis of the filtering algorithm. The work shows that the hardware output is identical to the software driven output at when considering eight-bit accuracy and shows only rounding errors at higher storage capacities.
66

Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation / Inversion pour image texturée : déconvolution myope non supervisée, choix de modèles, déconvolution-segmentation

Văcar, Cornelia Paula 19 September 2014 (has links)
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence. / This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods.
67

Restoration super-resolution of image sequences : application to TV archive documents / Restauration super-résolution de séquences d'images : applications aux documents d'archives TV

Abboud, Feriel 15 December 2017 (has links)
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation / The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
68

Problèmes inverses et analyse en ondelettes adaptées

Pham Ngoc, Thanh Mai 27 November 2009 (has links) (PDF)
Nous abordons l'étude de deux problèmes inverses, le problème des moments de Hausdorff et celui de la déconvolution sur la sphère ainsi qu'un problème de régression en design aléatoire. Le problème des moments de Hausdorff consiste à estimer une densité de probabilité à partir d'une séquence de moments bruités. Nous établissons une borne supérieure pour notre estimateur ainsi qu'une borne inférieure pour la vitesse de convergence, démontrant ainsi que notre estimateur converge à la vitesse optimale pour les classes de régularité de type Sobolev. Quant au problème de déconvolution sur la sphère, nous proposons un nouvel algorithme qui combine la méthode SVD traditionnelle et une procédure de seuillage dans la base des Needlets sphériques. Nous donnons une borne supérieure en perte Lp et menons une étude numérique qui montre des résultats fort prometteurs. Le problème de la régression en design aléatoire est abordé sous le prisme bayésien et sur la base des ondelettes déformées. Nous considérons deux scenarios de modèles a priori faisant intervenir des gaussiennes à faible et à grande variance et fournissons des bornes supérieures pour l'estimateur de la médiane a posteriori. Nous menons aussi une étude numérique qui révèle de bonnes performances numériques.
69

Identification Algébrique et Déterministe de Signaux et Systèmes à Temps Continu : Application à des Problèmes de Communication Numérique

Neves, Aline 20 May 2005 (has links) (PDF)
Ce travail aborde le problème de l'identification de signaux et systèmes, appliqué à des problèmes de communications<br />numériques. Contrairement aux méthodes classiques d'optimisation stochastiques, nous proposons une approche algébrique<br />et déterministe. De plus, nous considérons les signaux et systèmes sous leur forme ``physique'' temps-continu, ce qui<br />nous permet d'exploiter certaines connaissances qui peuvent être cachées ou oubliées par un échantillonnage prématuré.<br />Enfin, avec les méthodes algébriques proposées, on abouti à des techniques simples et rapides, qui permettent une<br />implémentation en temps réel.<br /><br />Dans un premier temps, nous abordons le problème de correction des distorsions dans un système de communication par<br />courant porteur, en utilisant la platitude du système représenté par la ligne électrique. Le système inverse de la<br />ligne obtenu est, par la suite, utilisé dans un autre contexte, notamment celui de la correction du timbre de la voix<br />dans un réseau téléphonique.<br /><br />Dans un deuxième temps, le problème de l'identification est abordé dans le cadre d'une nouvelle théorie déterministe de<br />l'estimation reposant sur l'algèbre différentielle et le calcul opérationnel. Partant de cette théorie, nous avons<br />développé un algorithme général d'identifi-cation entrée-sortie d'un système rationnel. De plus, la rapidité des<br />estimations nous permet-tent d'introduire une notion de filtrage local. Ce filtrage rend possible la représentation<br />d'un système de grande dimension par un modèle de dimension très réduite (ordre un ou deux), variable par morceaux dans<br />le temps. Cette modélisation est très intéressante car elle permet une démodulation directe des symboles transmis, sans<br />nécessiter d'identifier/égaliser explicitement le canal.<br /><br />Finalement, le problème de démodulation des signaux modulés en fréquence à phase continue, reçus à travers un canal à<br />bruit additif, a aussi été abordé à la lumière de ces techniques algébriques. Notre démarche consiste à décrire le<br />signal reçu, dans chaque intervalle symbole, par une équation différentielle linéaire bruitée (en général à<br />coefficients variables), dont les coefficients sont des fonctions du symbole courant. La démodulation symbole par<br />symbole devient alors immédiate et particulièrement robuste aux perturbations.
70

Optique adaptative, traitement d'image et étude des noyaux actifs de galaxie

Gratadour, Damien 30 November 2005 (has links) (PDF)
À travers mon travail de thèse sur les noyaux actifs de galaxie, dans le proche IR, avec un grand télescope (8-10m) muni d'une optique adaptative, j'ai été amené à faire intervenir des disciplines d'horizons très différents. <br /><br />Plus précisément, il s'agissait d'obtenir des données sur des noyaux actifs de galaxie avec NaCo, de créer et/ou d'adapter de nouvelles techniques de traitement pour les observations avec une optique adaptative, pour enfin interpréter les données ainsi traitées, notamment en les comparant à des modèles numériques. L'acquisition de cette double compétence a été particulièrement favorisée par le statut de ma thèse qui avait pour cadre une collaboration entre l'ONERA et le LESIA.<br /><br />Le problème astrophysique auquel je me suis attaqué est celui de la structuration de l'environnement immédiat des Noyaux Actifs de Galaxie (NAGs) et en particulier du test de l'hypothèse d'un tore de gaz moléculaire et de poussières ainsi que de son interaction avec un jet issu du NAG. Les échelles de ces structures (dizaine de pc) impliquent une résolution angulaire très élevée et la variété des phénomènes en jeu induit des morphologies parfois complexes qu'il est impératif de distinguer d'artefacts instrumentaux subtils.<br />Trois techniques de renforcement de la résolution angulaire et du contraste ont été développées ou améliorées dans ce travail :<br />- Le recentrage d'image sub-pixelique, grâce à un algorithme de type<br /> maximum de vraisemblance<br />- La déconvolution d'image sous contraintes<br />- La reconstruction de la fonction d'étalement de point de l'instrument<br /> avec les données d'analyse de front d'onde<br /><br />Dans chaque cas, la méthode a été appliquée à des données réelles et a permis effectivement un gain important sur la finesse angulaire et donc, au final, sur le retour astrophysique, avec plusieurs résultats originaux en particulier concernant NGC1068 le plus étudié des noyaux de Seyfert de type 2 :<br />- Dans le cas d'Arp 220, prototype des noyaux de galaxie ultra-lumineuses, deux composantes nucléaires ont pu être clairement identifiées, pour la première fois à 3.8µm dans la partie Est du coeur d'Arp 220, permettant d'établir un lien direct entre le proche et le moyen IR. De plus, un double bras d'émission, probablement la zone d'interaction des deux galaxies en fusion, est clairement mis en évidence, entre la source Ouest et les deux sources Est du coeur.<br />- Dans le cas de NGC 1068, de nouvelles structures à la morphologie très particulière (vagues quasi-périodiques), encadrant le jet radio, ont été mises en évidence en bande L' et M d'une part et en bande Ks d'autre part grâce aux premières observations coronographiques jamais réalisées dans le domaine extragalactique. Ces structures dont la formation n'est pas encore expliquée, témoignent d'une interaction forte du jet avec la Narrow Line Region. Une étude photométrique précise dans ces 3 bandes m'a aussi permis de conclure que la poussière dans ces structures était majoritairement composée de nano-grains, peut-être des nano-diamants. En plus d'avoir montré que le cœur était résolu, des observations spectroscopiques de la source la plus centrale m'ont enfin permis d'apporter un certain nombre d'éléments en faveur du modèle unifié des NAG, notamment la présence d'une cavité de sublimation des grains et la présence de gaz moléculaire non dissocié à petite distance du NAG. Le modèle de transfert radiatif dans le tore, développé dans le cadre de ma thèse, a permis de montrer la cohérence de l'ensemble des données.<br />- Dans le cas de NGC 7469, une structure micro-spirale a été mise en évidence grâce à la déconvolution dans les 2" centrales de cette galaxie de Seyfert de type I. De plus des observations spectroscopiques montrent des raies en émissions de l'hydrogène moléculaire sur la ligne de visée de la source la plus centrale, argument fort en faveur du modèle unifié des NAG.<br />- J'ai également contribué à la réduction de données des mesures faites sur le trou noir supermassif du Centre Galactique de 3 à 5 µm qui ont montré la fréquence importante des flares et leur localisation dans un volume de quelques rayons de Schwarzschild. <br /><br />Un certain nombre d'autres observations ont été réalisées durant cette thèse et sont en cours d'exploitation : on citera notamment les premières observations polarimétriques à haute résolution du jet de M87 dans l'IR proche.

Page generated in 0.1174 seconds