• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Imagerie à haut contraste et caractérisation d'exoplanètes par la spectroscopie intégrale de champ

Lavigne, Jean-Francois 11 1900 (has links)
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe. / The main goal of this thesis is the improvement of high-contrast imaging techniques enabling the direct detection of faint companions at small separations from their host star. More precisely, it answers some questions linked to the development of the Gemini Planet Imager (GPI), a second generation instrument for the Gemini telescopes. This instrument will use an integral field spectrometer (IFS) to characterize the detected faint companions and to attenuate the speckle noise limiting their detection. Moreover, it will use a combination of two deformable mirrors, the woofer and the tweeter, in its adaptive optics (AO) system in order to reach the atmospheric turbulence correction sought. The woofer corrects the low spatial frequency high amplitude aberrations while the ones with a high frequency and a low amplitude are compensated by the tweeter. First, the high-contrast imaging performance achieved by current on-line IFS on 8-10 m telescopes are investigated through the observation of the faint companion to the star GQ Lup using the IFS NIFS and the AO system ALTAIR presently in function on the telescope Gemini North. The angular differential imaging (ADI) technique is used to reach an attenuation of the speckle noise by a factor of 2 to 6. The JHK spectra obtained were used to constrain the mass of the companion to 8−60 MJup making it most likely a brown dwarf. MJup represents the mass of Jupiter. Current on-line IFS were conceived to be versatile so that they could be used in many astrophysical fields. Hence, their conception was not optimized for high-contrast imaging. The second part of this thesis objective was to build and test in the laboratory an IFS optimized for this task. Four speckle suppression algorithms were tested on the resulting data: the simple difference, the double difference, the spectral deconvolution and a novel algorithm developed in this thesis dubbed the spectral twin algorithm. We found the spectral twin algorithm to be the most efficient to detect both types of companions tested: methanated and non-methanated. The detection signal-to-noise ratio was improved by a factor up to 14 for the methanated companion and up to 2 for a non-methanated one. In the last part, problems linked to the wavefront correction split between two deformable mirrors are investigated. First, a method allowing to select the woofer key parameters such as its diameter, its number of actuators and its required stroke which influenced the overall instrument design is presented. Second, since GPI will use a Fourier reconstructor, we propose to split the command in the Fourier domain and to limit the modes sent to the woofer to the ones it can accurately reproduce. In GPI, this results in replacing two matrices of 1600×69 elements in the case of a classic command split scheme by a single matrix of 45×69 components with the proposed method.
112

Evaluation des performances de l'analyse statistique et physique d'images hyperspectrales de Mars. Application au capteur multi-angulaire CRISM / Evaluating the potential of statistical and physical methods to analyze hyperspectral images of Mars. Application to the multi-angle sensor CRISM

Ceamanos Garcia, Xavier 25 October 2011 (has links)
Une nouvelle génération de spectromètres imageurs émerge dans le domaine de l'exploration spatiale par l'ajout d'une dimension supplémentaire de mesure, la dimension angulaire. L'imagerie spectroscopique multi-angulaire est conçue pour fournir une caractérisation plus précise des matériaux planétaires et permet une meilleure séparation des signaux provenant de l'atmosphère et la surface. Le capteur Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) à bord de la sonde Mars Reconnaissance Orbiter est une caméra hyperspectrale qui fonctionne systématiquement dans le mode multi-angulaire depuis l'orbite. Néanmoins, les images multi-angulaires hyperspectrales posent certains problèmes de manipulation, de visualisation et d'analyse en raison de leur taille et de leur complexité. Dans ce cadre, cette thèse propose des algorithmes statistiques et physiques pour analyser les images acquises par l'instrument CRISM de manière efficace et robuste. Premièrement, je propose une chaîne de post-traitement visant à améliorer la qualité radiométrique des données CRISM et à générer des produits améliorés, ces dernières données étant conçues pour permettre une analyse fine de la planète Mars. Deuxièmement, je m'intéresse à la correction atmosphérique des images CRISM en exploitant les capacités multi-angulaires de cet instrument. Un algorithme innovant, à base physique est mis en oeuvre pour compenser les effets atmosphériques afin d'estimer la reflectance de surface. Cette approche est particulièrement utilisée dans cette thèse pour déduire les propriétés photométriques des matériaux qui coexistent dans un site spécifique de Mars, le cratère de Gusev. Troisièmement, j'effectue une comparaison d'une sélection des meilleurs techniques existantes, visant à réaliser une déconvolution spectrale des données acquises par l'instrument CRISM. Ces techniques statistiques se sont avérées utiles lors de l'analyse d'images hyperspectrales de manière non supervisé, c'est a dire, sans aucun a priori sur la scène. Une stratégie originale est proposée pour discriminer les techniques les plus appropriées pour l'exploration de Mars, à partir de données indépendantes provenant d'autres capteurs d'imagerie haute résolution afin de construire une vérité de terrain. / New generation of imaging spectrometers are emerging in the field of space exploration by adding an additional view of measurement, the angular dimension. Multi-angle imaging spectroscopy is conceived to provide a more accurate characterization of planetary materials and a higher success in separating the signals coming from the atmosphere and the surface. The Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) aboard the Mars Reconnaissance Orbiter is a hyperspectral camera that operates systematically in multi-angle mode from space. Nonetheless, multi-angle hyperspectral images are related to problems of manipulation, visualization and analysis because of their size and complexity. In this framework, this PhD thesis proposes robust statistical and physical algorithms to analyze images acquired by the CRISM instrument in an efficient manner. First, I propose a tailor-made data pipeline aimed at improving the radiometric quality of CRISM data and generating advanced products, the latter data being devised to perform fine analysis of the planet Mars. Second, I address the atmospheric correction of CRISM imagery by exploiting the multi-angle capabilities of this instrument. An innovative physically-based algorithm compensating for atmospheric effects is put forward in order to retrieve surface reflectance. This approach is particularly used in this thesis to infer the photometric properties of the materials coexisting in a specific site of Mars, the Gusev crater. Third, I perform an intercomparison of a selection of state-of-the-art techniques aimed at performing spectral unmixing of hyperspectral data acquired by the CRISM instrument. These statistical techniques are proved to be useful when analyzing hyperspectral images in an unsupervised manner, that is, without any a priori on the scene. An original strategy is proposed to discriminate the most suitable techniques for the exploration of Mars based on ground truth data built from independent high resolution imagery.
113

La reconnaissance automatisée des nannofossiles calcaires du Cénozoïque / The automatic recognition of the calcareous nannofossils of the Cenozoic

Barbarin, Nicolas 14 March 2014 (has links)
SYRACO est un SYstème de Reconnaissance Automatisée des COccolithes, développé à son origine par Luc Beaufort et Denis Dollfus à partir de 1995 et plus récemment avec Yves Gally. L'utilité d'un tel système est de permettre aux spécialistes un gain de temps majeur dans l'acquisition et le traitement des données. Dans ce travail, le système a été amélioré techniquement et sa reconnaissance a été étendue aux nannofossiles calcaires du Cénozoïque. Ce système fait le tri entre les nannofossiles et les non-nannofossiles avec une efficacité respectivement estimée à 75% et 90 %. Il s'appuie sur une nouvelle base d'images de référence d'espèces datant de l'Eocène Supérieur aux espèces vivantes, ce qui représente des centaines d'espèces avec une forte variabilité morphologique. Il permet de réaliser une classification en 39 morphogroupes par la combinaison de réseaux de neurones artificiels avec des modèles statistiques. Les résultats sont présentés sous forme de comptages automatisés, de données morphométriques (taille, masse...) et de mosaïques d'images. Il peut ainsi être utilisé pour des analyses biostratigraphiques et paléocéanographiques. / SYRACO is an automated recognition system of coccoliths, originally developed since 1995 by Luc Beaufort and Denis Dollfus, and more recently with the help of Yves Gally. The main purpose of this system is for specialists to save time in the acquisition and treatment of data. By this recent work, the system has been technically improved and its ability of recognition has been extended to calcareous nannofossils of the Cenozoic Era. It sorts nannofossils and non-nannofossils with a reliability respectively estimated to 75% and 90%. It is based on a new reference images database of species from the Upper Eocene up to living species. This represents hundreds of species with a high morphological variability. It leads to the establishment of a classification arranged in 39 morphogroups, combining artificial neural networks to statistical models. The results are presented as automated counting, morphometrical data (size, mass...) and mosaics of images. Those results can be valuable in biostratigraphical and paleoceanographical analyses.
114

Assimilation de données d'images télédétectées en météorologie / Assimilation of image-derived bogussing observations in meteorology

Michel, Yann 17 December 2008 (has links)
L’évolution libre des fluides géostrophiques turbulents bidimensionnels fait apparaitre des tourbillons présentant une grande cohérence spatio-temporelle. Les écoulements atmosphériques tridimensionnels présentent également ce genre de structures cohérentes, notamment dans les champs de tourbillon potentiel. Certains aspects de la cyclogenèse semblent gouvernés, ou très sensibles, à la position et à l’intensité de ces anomalies. Les images des satellites géostationnaires permettent par ailleurs de visualiser les signatures de ces phénomènes, appelées intrusions sèches. Une première partie du travail adapte des outils de traitement d’image à la détection et au suivi des intrusions sèches sur les images vapeur d’eau. On utilise une approche basée sur des multi-seuillages et le suivi automatisé de structures (logiciel RDT). Le développement de caractéristiques supplémentaires s’avère nécessaire afin de sélectionner les intrusions associées à des événements dynamiques importants. L’une d’entre elles utilise l’information sur le courant-jet à partir de vents d’altitude de l’ébauche. Un deuxième volet s’applique à dégager une méthodologie de correction des structures en tourbillon potentiel à partir de ces informations. L’assimilation de données conventionnelle ne permet pas d’initialiser spécifiquement les structures. Nous décrivons les méthodes alternatives et étudions les possibilités, et limitations, d’une méthodologie basée sur l’assimilation de pseudo-observations. Cela débouche en particulier sur une version renouvelée de la relation entre vapeur d’eau et tourbillon potentiel. Les outils développés sont appliqués à la prévision de la tempête des Landes (2006). L’utilisation de données de concentration d’ozone est finalement évoquée comme une méthode alternative d’initialisation du tourbillon potentiel à la tropopause / Isolated vortices have been shown to emerge in two-dimensional and geostrophic turbulent flows. Coherent structures are apparent in three-dimensional atmospheric flows as well, and may share the property to determine the non-linear evolution and the predictability of the flow. Potential vorticity anomalies have indeed been shown to be of primary importance for cyclogenesis of mid-latitude storms. Their signature can be detected in satellite water vapour images and are known as dry intrusions. The first part of this work proceeds the tracking of dry intrusions on images. We use image processing tools based on thresholding algorithm, and develop additional filters to select relevant cells. One of this filters uses dynamical information on the jet from the background upper-level wind. We highlight the fact that conventional data assimilation does not handle coherent structures, and describe alternative procedures. We focus then on the assimilation of bogussed potential vorticity observations. This leads to a new vision of the relationship between water vapour and potential vorticity. The case study of the storms that has affected the Landes region in 2006 is then presented. We finally pinpoint ozone data as an alternative way to improve the initialization of upper-level potential vorticity
115

Video event detection and visual data pro cessing for multimedia applications

Szolgay, Daniel 30 September 2011 (has links)
Cette thèse (i) décrit une procédure automatique pour estimer la condition d'arrêt des méthodes de déconvolution itératives basées sur un critère d'orthogonalité du signal estimé et de son gradient à une itération donnée; (ii) présente une méthode qui décompose l'image en une partie géométrique (ou "cartoon") et une partie "texture" en utilisation une estimation de paramètre et une condition d'arrêt basées sur la diffusion anisotropique avec orthogonalité, en utilisant le fait que ces deux composantes. "cartoon" et "texture", doivent être indépendantes; (iii) décrit une méthode pour extraire d'une séquence vidéo obtenue à partir de caméra portable les objets de premier plan en mouvement. Cette méthode augmente la compensation de mouvement de la caméra par une nouvelle estimation basée noyau de la fonction de probabilité de densité des pixels d'arrière-plan. Les méthodes présentées ont été testées et comparées aux algorithmes de l'état de l'art. / This dissertation (i) describes an automatic procedure for estimating the stopping condition of non-regularized iterative deconvolution methods based on an orthogonality criterion of the estimated signal and its gradient at a given iteration; (ii) presents a decomposition method that splits the image into geometric (or cartoon) and texture parts using anisotropic diffusion with orthogonality based parameter estimation and stopping condition, utilizing the theory that the cartoon and the texture components of an image should be independent of each other; (iii) describes a method for moving foreground object extraction in sequences taken by wearable camera, with strong motion, where the camera motion compensated frame differencing is enhanced with a novel kernel-based estimation of the probability density function of the background pixels. The presented methods have been thoroughly tested and compared to other similar algorithms from the state-of-the-art.
116

Correction active des discontinuités pupillaires des télescopes à miroir segmenté pour l’imagerie haut contraste et la haute résolution angulaire / Active correction of pupil discontinuities on segmented telescopes for high contrast imaging and high angular resolution

Janin-Potiron, Pierre 19 October 2017 (has links)
La recherche de signes de vie extraterrestre par l'observation et la caractérisation d'exoplanètes est, entre autres, l'un des enjeux majeurs de l'astrophysique moderne. Cette quête se traduit de manière instrumentale par le développement de télescopes fournissant des résolutions angulaires supérieures à celles obtenues à l'heure actuelle. C'est pourquoi les projets de futurs très grands télescopes font usage de miroirs primaires dépassant les 30 mètres de diamètre. Leur conception est alors inévitablement basée, pour des raisons techniques et technologiques, sur une géométrie segmentée. De ce fait, la segmentation du miroir primaire implique une complexification des structures pupillaires du télescope. Dans le but d'atteindre les niveaux de qualité optique nécessaires aux applications scientifiques visées, la prise en compte et la correction des effets introduits par un mauvais alignement des segments est de prime importance puisque la résolution angulaire d'un télescope non cophasé serait équivalente à celle obtenue avec un segment individuel. Dans ce contexte, je développe dans cette thèse deux analyseurs de cophasage permettant de mesurer et de corriger les aberrations de piston, tip et tilt présentes sur une pupille segmentée. Le premier, nommé Self-Coherent Camera - Phasing Sensor (SCC-PS), est basé sur une analyse du signal en plan focal. Le second, nommé ZELDA - Phasing Sensor (ZELDA-PS), repose quant à lui sur une analyse du signal en plan pupille. Sont présentés dans ce manuscrit les résultats obtenus à l'aide de simulations numériques ainsi que ceux issus de l'implémentation de la SCC-PS sur un banc d'optique d'essai. / Searching for extraterrestrial life through the observation and characterization of exoplanets is, amongst others, one of the major goal of the modern astrophysics. This quest translate from an instrumental point of view to the development of telescope capable of reaching higher angular resolution that what is actually ongoing. That is why the future projects of extremely large telescopes are using primary mirrors exceeding the 30 meters in diameter. Their conception is consequently based, for technical and technological reasons, on a segmented geometry. The segmentation of the primary mirror therefore implies a growing complexity of the structure of its pupil. In order to reach the optical quality required by the sciences cases of interest, taking into account and correct for the effects introduced by a poor alignment of the segments is mandatory, as the angular resolution of a non-cophased telescope is equivalent to the one obtained with a single segment. In this context, I develop in this manuscript two cophasing sensors allowing to measure and correct for the aberrations of piston, tip and tilt present on a segmented pupil. The first one, the Self-Coherent Camera - Phasing Sensor (SCC-PS), is based on a focal plane analysis of the signal. The second one, the ZELDA - Phasing Sensor (ZELDA-PS), is based on a pupil plane analysis of the signal. The results obtained by means of numerical simulations and the first results coming from the implementation of the SCC-PS on an optical bench are presented in this manuscript.
117

Some advances in patch-based image denoising / Quelques avancées dans le débruitage d'images par patchs

Houdard, Antoine 12 October 2018 (has links)
Cette thèse s'inscrit dans le contexte des méthodes non locales pour le traitement d'images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d'autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l'image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble.Dans le premier chapitre, le principe du "global denoising" est reformulé avec le formalisme classique de l'estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l'image et sur le filtre global sont introduites pour assurer et quantifier la convergence.Le deuxième chapitre est consacré à l'étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d'images par patches. Ces a priori sont largement utilisés pour la restauration d'image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ?Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performance de l'état-de-l'art.Le dernier chapitre explore des pistes d'agrégation différentes et propose une écriture de l’étape d'agrégation sous la forme d'un problème de moindre carrés. / This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into "patches". These patches can then be grouped, compared and filtered together.In the first chapter, "global denoising" is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence.The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image?The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed.
118

Observations cosmologiques avec un télescope grand champ spatial: Simulations pixels du spectromètre sans fente d'EUCLID

Zoubian, Julien, Kneib, Jean-Paul, Milliard, Bruno 21 May 2012 (has links) (PDF)
Les observations des supernovae, du fond diffus cosmologique, et plus récemment la mesure des oscillations acoustiques des baryons et des effets de lentilles gravitationnelles faibles, favorisent le modèle cosmologique Lambda CDM pour lequel l'expansion de l'Univers est actuellement en accélération. Ce modèle fait appel à deux composants insaisissables, la matière sombre et l'énergie sombre. Deux approches semblent particulièrement prometteuses pour sonder à la fois la géométrie de l'Univers et la croissance des structures de matière noire, l'analyse des distorsions faibles des galaxies lointaines par cisaillement gravitationnel et l'étude des oscillations acoustiques des baryons. Ces deux méthodes demandent de très grands relevés du ciel, de plusieurs milliers de degrés carrés, en imagerie et en spectroscopie. Dans le contexte du relevé spectroscopique de la mission spatiale EUCLID, dédiée à l'étude des composantes sombres de l'univers, j'ai réalisé des simulations pixels permettant l'analyse des performances instrumentales. La méthode proposée peut se résumer en trois étapes. La première étape est de simuler les observables, c'est à dire principalement les sources du ciel. Pour cela j'ai développé une nouvelle méthode, adapté à la spectroscopie, qui permet d'imiter un relevé existant, en s'assurant que la distribution des propriétés spectrales des galaxies soit représentative des observations actuelles, en particulier la distribution des raies d'émission. La seconde étape est de simuler l'instrument et de produire des images équivalentes aux images réelles attendues. En me basant sur le simulateur pixel du HST, j'ai développé un nouvel outil permettant de simuler les images en spectroscopie sans fente d'EUCLID. Le nouveau simulateur a la particularité de pouvoir simuler des PSF avec une distribution d'énergie variée et des détecteurs dont chaque pixel est différent. La dernière étape est l'estimation des performances de l'instrument. Encore en me basant sur les outils existant, j'ai mis en place un pipeline de traitement des images et de mesure de performances. Mes résultat principaux ont été : 1) de valider la méthode en simulant un relevé de galaxies existant, le relevé WISP, 2) de déterminer les tolérances sur la distribution d'énergie de la PSF du spectromètre sans fente d'EUCLID, 3) de déterminer les tolérances sur les propriétés de détecteurs proche infrarouge d'EUCLID.
119

Évaluation de modèles computationnels de la vision humaine en imagerie par résonance magnétique fonctionnelle / Evaluating Computational Models of Vision with Functional Magnetic Resonance Imaging

Eickenberg, Michael 21 September 2015 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) permet de mesurer l'activité cérébrale à travers le flux sanguin apporté aux neurones. Dans cette thèse nous évaluons la capacité de modèles biologiquement plausibles et issus de la vision par ordinateur à représenter le contenu d'une image de façon similaire au cerveau. Les principaux modèles de vision évalués sont les réseaux convolutionnels.Les réseaux de neurones profonds ont connu un progrès bouleversant pendant les dernières années dans divers domaines. Des travaux antérieurs ont identifié des similarités entre le traitement de l'information visuelle à la première et dernière couche entre un réseau de neurones et le cerveau. Nous avons généralisé ces similarités en identifiant des régions cérébrales correspondante à chaque étape du réseau de neurones. Le résultat consiste en une progression des niveaux de complexité représentés dans le cerveau qui correspondent à l'architecture connue des aires visuelles: Plus la couche convolutionnelle est profonde, plus abstraits sont ses calculs et plus haut niveau sera la fonction cérébrale qu'elle sait modéliser au mieux. Entre la détection de contours en V1 et la spécificité à l'objet en cortex inférotemporal, fonctions assez bien comprises, nous montrons pour la première fois que les réseaux de neurones convolutionnels de détection d'objet fournissent un outil pour l'étude de toutes les étapes intermédiaires du traitement visuel effectué par le cerveau.Un résultat préliminaire à celui-ci est aussi inclus dans le manuscrit: L'étude de la réponse cérébrale aux textures visuelles et sa modélisation avec les réseaux convolutionnels de scattering.L'autre aspect global de cette thèse sont modèles de “décodage”: Dans la partie précédente, nous prédisions l'activité cérébrale à partir d'un stimulus (modèles dits d’”encodage”). La prédiction du stimulus à partir de l'activité cérébrale est le méchanisme d'inférence inverse et peut servir comme preuve que cette information est présente dans le signal. Le plus souvent, des modèles linéaires généralisés tels que la régression linéaire ou logistique ou les SVM sont utilisés, donnant ainsi accès à une interprétation des coefficients du modèle en tant que carte cérébrale. Leur interprétation visuelle est cependant difficile car le problème linéaire sous-jacent est soit mal posé et mal conditionné ou bien non adéquatement régularisé, résultant en des cartes non-informatives. En supposant une organisation contigüe en espace et parcimonieuse, nous nous appuyons sur la pénalité convexe d'une somme de variation totale et la norme L1 (TV+L1) pour développer une pénalité regroupant un terme d'activation et un terme de dérivée spatiale. Cette pénalité a la propriété de mettre à zéro la plupart des coefficients tout en permettant une variation libre des coefficients dans une zone d'activation, contrairement à TV+L1 qui impose des zones d’activation plates. Cette méthode améliore l'interprétabilité des cartes obtenues dans un schéma de validation croisée basé sur la précision du modèle prédictif.Dans le contexte des modèles d’encodage et décodage nous tâchons à améliorer les prétraitements des données. Nous étudions le comportement du signal IRMf par rapport à la stimulation ponctuelle : la réponse impulsionnelle hémodynamique. Pour générer des cartes d'activation, au lieu d’un modèle linéaire classique qui impose une réponse impulsionnelle canonique fixe, nous utilisons un modèle bilinéaire à réponse hémodynamique variable spatialement mais fixe à travers les événements de stimulation. Nous proposons un algorithme efficace pour l'estimation et montrons un gain en capacité prédictive sur les analyses menées, en encodage et décodage. / Blood-oxygen-level dependent (BOLD) functional magnetic resonance imaging (fMRI) makes it possible to measure brain activity through blood flow to areas with metabolically active neurons. In this thesis we use these measurements to evaluate the capacity of biologically inspired models of vision coming from computer vision to represent image content in a similar way as the human brain. The main vision models used are convolutional networks.Deep neural networks have made unprecedented progress in many fields in recent years. Even strongholds of biological systems such as scene analysis and object detection have been addressed with enormous success. A body of prior work has been able to establish firm links between the first and last layers of deep convolutional nets and brain regions: The first layer and V1 essentially perform edge detection and the last layer as well as inferotemporal cortex permit a linear read-out of object category. In this work we have generalized this correspondence to all intermediate layers of a convolutional net. We found that each layer of a convnet maps to a stage of processing along the ventral stream, following the hierarchy of biological processing: Along the ventral stream we observe a stage-by-stage increase in complexity. Between edge detection and object detection, for the first time we are given a toolbox to study the intermediate processing steps.A preliminary result to this was obtained by studying the response of the visual areas to presentation of visual textures and analysing it using convolutional scattering networks.The other global aspect of this thesis is “decoding” models: In the preceding part, we predicted brain activity from the stimulus presented (this is called “encoding”). Predicting a stimulus from brain activity is the inverse inference mechanism and can be used as an omnibus test for presence of this information in brain signal. Most often generalized linear models such as linear or logistic regression or SVMs are used for this task, giving access to a coefficient vector the same size as a brain sample, which can thus be visualized as a brain map. However, interpretation of these maps is difficult, because the underlying linear system is either ill-defined and ill-conditioned or non-adequately regularized, resulting in non-informative maps. Supposing a sparse and spatially contiguous organization of coefficient maps, we build on the convex penalty consisting of the sum of total variation (TV) seminorm and L1 norm (“TV+L1”) to develop a penalty grouping an activation term with a spatial derivative. This penalty sets most coefficients to zero but permits free smooth variations in active zones, as opposed to TV+L1 which creates flat active zones. This method improves interpretability of brain maps obtained through cross-validation to determine the best hyperparameter.In the context of encoding and decoding models, we also work on improving data preprocessing in order to obtain the best performance. We study the impulse response of the BOLD signal: the hemodynamic response function. To generate activation maps, instead of using a classical linear model with fixed canonical response function, we use a bilinear model with spatially variable hemodynamic response (but fixed across events). We propose an efficient optimization algorithm and show a gain in predictive capacity for encoding and decoding models on different datasets.
120

Analyses multiéchelle et multifractale d'images météorologiques: Application à la détection de zones précipitantes

grazzini, jacopo 19 December 2003 (has links) (PDF)
Dans cette thèse, nous nous intéressons, à la <br />caractérisation, sur des images météorologiques infrarouges, des systèmes convectifs <br />susceptibles d'engendrer de fortes pluies. <br />L'étude des propriétés statistiques des phénomènes <br />observés révèle une évolution chaotique, mise en évidence par l'invariance d'échelle de <br />certaines grandeurs significatives. Pour les étudier, nous introduisons des méthodes <br />multiéchelles de traitement d'image dérivées de concepts <br />thermodynamiques et qui constituent un prolongement des méthodes <br />d'analyse de la turbulence. Nous utilisons tout d'abord un modèle <br />multifractal afin de détecter les singularités du signal et d'extraire, <br />dans une décomposition hiérarchique de l'image, des structures <br />pertinentes pour la compréhension des mécanismes atmosphériques. <br />Nous proposons ensuite une extension de ce modèle <br />permettant d'exhiber les zones de diffusion de la <br />luminance dans l'image et d'identifier les zones de convection associées aux <br />précipitations.

Page generated in 0.2662 seconds