• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 81
  • 18
  • Tagged with
  • 269
  • 269
  • 133
  • 67
  • 52
  • 41
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variables

Mourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
162

Stochastic model of high-speed train dynamics for the prediction of long-time evolution of the track irregularities / Modèle stochastique de la dynamique des trains à grande vitesse pour la prévision de l'évolution à long terme des défauts de géométrie de la voie

Lestoille, Nicolas 16 October 2015 (has links)
Les voies ferrées sont de plus en plus sollicitées: le nombre de trains à grande vitesse, leur vitesse et leur charge ne cessent d'augmenter, ce qui contribue à la formation de défauts de géométrie sur la voie. En retour, ces défauts de géométrie influencent la réponse dynamique du train et dégradent les conditions de confort. Pour garantir de bonnes conditions de confort, les entreprises ferroviaires réalisent des opérations de maintenance de la voie, qui sont très coûteuses. Ces entreprises ont donc intérêt à prévoir l'évolution temporelle des défauts de géométrie de la voie pour anticiper les opérations de maintenance, et ainsi réduire les coûts de maintenance et améliorer les conditions de transport. Dans cette thèse, on analyse l'évolution temporelle d'une portion de voie par un indicateur vectoriel sur la dynamique du train. Pour la portion de voie choisie, on construit un modèle stochastique local des défauts de géométrie de la voie à partir d'un modèle global des défauts de géométrie et de big data de défauts mesurés par un train de mesure. Ce modèle stochastique local prend en compte la variabilité des défauts de géométrie de la voie et permet de générer des réalisations des défauts pour chaque temps de mesure. Après avoir validé le modèle numérique de la dynamique du train, les réponses dynamiques du train sur la portion de voie mesurée sont simulées numériquement en utilisant le modèle stochastique local des défauts de géométrie. Un indicateur dynamique, vectoriel et aléatoire, est introduit pour caractériser la réponse dynamique du train sur la portion de voie. Cet indicateur dynamique est construit de manière à prendre en compte les incertitudes de modèle dans le modèle numérique de la dynamique du train. Pour identifier le modèle stochastique des défauts de géométrie et pour caractériser les incertitudes de modèle, des méthodes stochastiques avancées, comme par exemple la décomposition en chaos polynomial ou le maximum de vraisemblance multidimensionnel, sont appliquées à des champs aléatoires non gaussiens et non stationnaires. Enfin, un modèle stochastique de prédiction est proposé pour prédire les quantités statistiques de l'indicateur dynamique, ce qui permet d'anticiper le besoin en maintenance. Ce modèle est construit en utilisant les résultats de la simulation de la dynamique du train et consiste à utiliser un modèle non stationnaire de type filtre de Kalman avec une condition initiale non gaussienne / Railways tracks are subjected to more and more constraints, because the number of high-speed trains using the high-speed lines, the trains speed, and the trains load keep increasing. These solicitations contribute to produce track irregularities. In return, track irregularities influence the train dynamic responses, inducing degradation of the comfort. To guarantee good conditions of comfort in the train, railways companies perform maintenance operations of the track, which are very costly. Consequently, there is a great interest for the railways companies to predict the long-time evolution of the track irregularities for a given track portion, in order to be able to anticipate the start off of the maintenance operations, and therefore to reduce the maintenance costs and to improve the running conditions. In this thesis, the long-time evolution of a given track portion is analyzed through a vector-valued indicator on the train dynamics. For this given track portion, a local stochastic model of the track irregularities is constructed using a global stochastic model of the track irregularities and using big data made up of experimental measurements of the track irregularities performed by a measuring train. This local stochastic model takes into account the variability of the track irregularities and allows for generating realizations of the track irregularities at each long time. After validating the computational model of the train dynamics, the train dynamic responses on the measured track portion are numerically simulated using the local stochastic model of the track irregularities. A vector-valued random dynamic indicator is defined to characterize the train dynamic responses on the given track portion. This dynamic indicator is constructed such that it takes into account the model uncertainties in the train dynamics computational model. For the identification of the track irregularities stochastic model and the characterization of the model uncertainties, advanced stochastic methods such as the polynomial chaos expansion and the multivariate maximum likelihood are applied to non-Gaussian and non-stationary random fields. Finally, a stochastic predictive model is proposed for predicting the statistical quantities of the random dynamic indicator, which allows for anticipating the need for track maintenance. This modeling is constructed using the results of the train dynamics simulation and consists in using a non-stationary Kalman-filter type model with a non-Gaussian initial condition. The proposed model is validated using experimental data for the French railways network for the high-speed trains
163

Analyse probabiliste et multi-données de la source de grands séismes / Probabilistic and multi data analysis of large earthquakes source physics

Bletery, Quentin 27 November 2015 (has links)
Les séismes sont le résultat de glissements rapides le long de failles actives chargées en contraintes par le mouvement des plaques tectoniques. Il est aujourd'hui établi, au moins pour les grands séismes, que la distribution de ce glissement rapide le long des failles pendant les séismes est hétérogène. Imager la complexité de ces distributions de glissement constitue un enjeu majeur de la sismologie en raison des implications potentielles dans la compréhension de la genèse des séismes et la possibilité associée de mieux anticiper le risque sismique et les tsunamis. Pour améliorer l'imagerie de ces distributions de glissement co-sismique, trois axes peuvent être suivis: augmenter les contraintes sur les modèles en incluant plus d'observations dans les inversions, améliorer la modélisation physique du problème direct et progresser dans le formalisme de résolution du problème inverse. Dans ce travail de thèse, nous explorons ces trois axes à travers l'étude de deux séismes majeurs: les séisme de Tohoku-Oki (Mw 9.0) et de Sumatra-Andaman (Mw 9.1-9.3) survenus en 2011 et 2004, respectivement. / Earthquakes are the results of rapid slip on active faults loaded in stress by the tectonic plates motion. It is now establish - at least for large earthquakes - that the distribution of this rapid slip along the rupturing faults is heterogeneous. Imaging the complexity of such slip distributions is one the main challenges in seismology because of the potential implications on understanding earthquake genesis and the associated possibility to better anticipate devastating shaking and tsunami. To improve the imaging of such co-seismic slip distributions, three axes may be followed: increase the constraints on the source models by including more observations into the inversions, improve the physical modeling of the forward problem and improve the formalism to solve the inverse problem. In this PhD thesis, we explore these three axes by studying two recent major earthquakes: the Tohoku-Oki (Mw 9.0) and Sumatra-Andaman (Mw 9.1-9.3) earthquakes, which occured in 2011 and 2004 respectively.
164

Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse" / Reconstruction and segmentation of electron tomography by “inverse problem” approach

Tran, Viet Dung 14 October 2013 (has links)
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur / In oil refining industry, morphological measurements of particles have become an essential part in the characterization of catalyst supports. Through these parameters, one can infer the specific physicochemical properties of the studied materials. One of the main acquisition techniques is electron tomography (or nanotomography). 3D volumes are reconstructed from sets of projections from different angles made by a transmission electron microscope (TEM). This technique provides a real three-dimensional information at the nanometric scale. Projections are obtained by tilting the specimen port in the microscope. The tilt mechanism has two drawbacks: a rather limited angular range and mechanical shifts, which are difficult to deal with, knowing that these shifts must be corrected after the acquisition by an alignment of projections. This alignment step is a prerequisite for the tomographic reconstruction. Our work deals with a wholly "inverse problem" approach for aligning projections and reducing artifacts due to missing projections by introducing in a relevant way certain a priori informations. These informations are jointly based on the physics of acquisition (physical nature of the TEM images, geometry and specific limitation on the acquisition of projections...) and on the nature of objects to be reconstructed (number and distribution of phases, morphological criteria such as connectivity ...). This approach is described in an algorithmic way. The implementation of this algorithm shows higher precision reconstruction and smaller computation time compared to earlier techniques. We successfully tested our method for real projections of different catalyst supports
165

Déconvolution adaptative pour le contrôle non destructif par ultrasons / Adaptative deconvolution for ultrasonic non destructive testing

Carcreff, Ewen 28 November 2014 (has links)
Nous nous intéressons au contrôle non destructif par ultrasons des matériaux industriels. En pratique, les signaux réceptionnés par le transducteur ultrasonore sont analysés pour détecter les discontinuités de la pièce inspectée. L'analyse est néanmoins rendue difficile par l'acquisition numérique, les effets de la propagation ultrasonore et la superposition des échos lorsque les discontinuités sont proches. La déconvolution parcimonieuse est une méthode inverse qui permet d'aborder ce problème afin de localiser précisément les discontinuités. Ce procédé favorise les signaux parcimonieux, c'est à dire ne contenant qu'un faible nombre de discontinuités. Dans la littérature, la déconvolution est généralement abordée sous l'hypothèse d'un modèle invariant en fonction de la distance de propagation, modalité qui n'est pas appropriée ici car l'onde se déforme au cours de son parcours et en fonction des discontinuités rencontrées. Cette thèse développe un modèle et des méthodes associées qui visent à annuler les dégradations dues à l'instrumentation et à la propagation ultrasonore, tout en résolvant des problèmes de superposition d'échos. Le premier axe consiste à modéliser la formation du signal ultrasonore en y intégrant les phénomènes propres aux ultrasons. Cette partie permet de construire un modèle linéaire mais non invariant, prenant en compte l'atténuation et la dispersion. L'étape de modélisation est validée par des acquisitions avec des matériaux atténuants. La deuxième partie de cette thèse concerne le développement de méthodes de déconvolution efficaces pour ce problème, reposant sur la minimisation d'un critère des moindres carrés pénalisé par la pseudo-norme L0. Nous avons développé des algorithmes d'optimisation spécifiques, prenant en compte, d'une part, un modèle de trains d'impulsions sur-échantillonné par rapport aux données, et d'autre part le caractère oscillant des formes d'onde ultrasonores. En utilisant des données synthétiques et expérimentales, ces algorithmes associés à un modèle direct adapté aboutissent à de meilleurs résultats comparés aux approches classiques pour un coût de calcul maîtrisé. Ces algorithmes sont finalement appliqués à des cas concrets de contrôle non destructif où ils démontrent leur efficacité. / This thesis deals with the ultrasonic non destructive testing of industrial parts. During real experiments, the signals received by the acoustic transducer are analyzed to detect the discontinuities of the part under test. This analysis can be a difficult task due to digital acquisition, propagation effects and echo overlapping if discontinuities are close. Sparse deconvolution is an inverse method that aims to estimate the precise positions of the discontinuities. The underlying hypothesis of this method is a sparse distribution of the solution, which means there are a few number of discontinuities. In the literature, deconvolution is addressed by a linear time-invariant model as a function of propagation distance, which in reality does not hold.The purpose of this thesis is therefore to develop a model and associated methods in order to cancel the effects of acquisition, propagation and echo overlapping. The first part is focused on the direct model development. In particular, we build a linear time-variant model that takes into account dispersive attenuation. This model is validated with experimental data acquired from attenuative materials. The second part of this work concerns the development of efficient sparse deconvolution algorithms, addressing the minimization of a least squares criterion penalized by a L0 pseudo-norm. Specific algorithms are developed for up-sampled deconvolution, and more robust exploration strategies are built for data containing oscillating waveforms. By using synthetic and experimental data, we show that the developed methods lead to better results compared to standard approaches for a competitive computation time. The proposed methods are then applied to real non destructive testing problems where they confirm their efficiency.
166

Quelques problèmes liés à l'erreur statistique en homogénéisation stochastique / Some problems related to statistical error in stochastic homogenization

Minvielle, William 25 September 2015 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation d'équations dont les coefficients présentent des hétérogénéités aléatoires à petite échelle. Les difficultés liées à la résolution de telles équations aux dérivées partielles peuvent être résolues grâce à la théorie de l'homogénéisation stochastique. On substitue alors la résolution d'une équation dont les coefficients sont aléatoires et oscillants à l'échelle la plus fine du problème par la résolution d'une équation à coefficients constants. Cependant, une difficulté subsiste : le calcul de ces coefficients dits homogénéisés sont définis par une moyenne ergodique, que l'on ne peut atteindre en pratique. Seuls des approximations aléatoires de ces quantités déterministes sont calculables, et l'erreur commise lors de l'approximation est importante. Ces questions sont développées en détail dans le Chapitre 1 qui tient lieu d'introduction. L'objet du Chapitre 2 de cette thèse est de réduire l'erreur de cette approximation dans un cas nonlinéaire, en réduisant la variance de l'estimateur par la méthode des variables antithétiques. Dans le Chapitre 3, on montre comment obtenir une meilleure réduction de variance par la méthode des vari- ables de contrôle. Cette approche repose sur un modèle approché, disponible dans le cas étudié. Elle est plus invasive et moins générique, on l'étudie dans un cas linéaire. Dans le Chapitre 4, à nouveau dans un cas linéaire, on introduit une méthode de sélection pour réduire l'erreur commise. Enfin, le Chapitre 5 porte sur l'analyse d'un problème in- verse, où l'on recherche des paramètres à l'échelle la plus fine, ne connaissant que quelques quantités macroscopiques, par exemple les coefficients homogénéisés du modèle / In this thesis, we design numerical techniques to address the homogenization of equations the coefficients of which exhibit small scale random heterogeneities. Solving such elliptic partial differential equations is prohibitively expensive. One may use stochastic homogenization theory to reduce the complexity of this task. We then substitute the random, fine scale oscillating coefficients of the equation with constant homogenized coefficients. These coefficients are defined through an ergodic average inaccessible to practical computation. Only random approximations thereof are available. The error committed in this approximation is significant. These issues are detailed in the introductory Chapter 1. In Chapter 2, we show how to reduce the error in this approximation, in a nonlinear case, by using an antithetic variable estimator that has a smaller variance than the standard Monte Carlo estimator. In Chapter 3, in a linear case, we show how to obtain an even better variance reduction with the control variate method. Such a method is based on a surrogate model. In Chapter 4, we use a selection method to reduce the global error. Chapter 5 is devoted to the analysis of an inverse problem, wherein we seek parameters at the fine scale whilst only being provided with a handful of macroscopic quantities, among which the homogenized coefficients
167

Identification de fractures dans un milieu poreux / Identification of fractures in porous medium

Cheikh, Fatma 12 October 2016 (has links)
Cette thèse est consacrée à l'étude mathématique d'un problème inverse en hydrogéologie : le but est d'identifier des fractures en milieu poreux, connaissant des mesures de l'écoulement dans le sous-sol. Le nombre, la localisation et les paramètres physiques des fractures sont recherchés. Ce problème est formulé comme la minimisation au sens des moindres carrés d'une fonctionnelle évaluant l'écart entre les mesures et les résultats du modèle direct. L'écoulement est celui d'un fluide monophasique incompressible (loi de Darcy). Un modèle traitant les fractures comme des interfaces est utilisé. Le problème direct est le modèle de fracture discrétisé par la méthode des éléments finis mixtes hybrides.Pour résoudre ce problème inverse, un nouvel algorithme itératif a été développé, basé sur l’utilisation d’indicateurs de fractures mis au point pendant la thèse. Ces indicateurs donnent une information au premier ordre concernant l'effet de l'ajout d'une nouvelle fracture. Comme ces indicateurs sont peu coûteux, un grand nombre de configurations de fractures sont testées à chaque itération. L’algorithme a été programmé, validé puis testé numériquement dans des situations variées, en utilisant des mesures synthétiques. Il donne des résultats très satisfaisants, bien que ce problème soit réputé difficile.Enfin, l’étude de l’identifiabilité du problème inverse a été amorcée. Pour un modèle simplifié de fractures (failles très perméables, cas le plus courant dans le sous-sol), on a montré que le problème. / This PhD is dedicated to the mathematical study of an inverse problem in hydrogeology: the goal is to identify fractures in porous medium, knowing measurements of the underground flow. The number, the location and the physical parameters of the fracture are looked for. This problem is formulated as the least squares minimization of a function evaluating the misfit between measurements and the result of the direct model. We used a model describing the flow of a monophasic incompressible fluid (Darcy's law), in a porous medium containing some fractures represented by interfaces. The direct problem is the fracture model discretized by the mixed hybrid finite element method. To solve this inverse problem, we developed an iterative algorithm, which is based on the use of fracture indicators that have been developed durig the thesis. These indicators give a first order information concerning the effect of the addition of a new fracture. As these indicators are inexpensive, a large number of configurations of new fractures is tested at each iteration. The algorithm was programmed, validated and tested numerically in various situations, using synthetic measurements. It gives very satisfactory results, although this problem is considered difficult. Finally, an early study of identifiability of the inverse problem of fractures in porous medium has been achieved. It allowed to prove the identifiability for a simplified model (very permeable faults, which is common in the underground). The question of identifiability for the full fracture model remains open.
168

Analyse de vitesse par migration quantitative dans les domaines images et données pour l’imagerie sismique / Subsurface seismic imaging based on inversion velocity analysis in both image and data domains

Li, Yubing 16 January 2018 (has links)
Les expériences sismiques actives sont largement utilisées pour caractériser la structure de la subsurface. Les méthodes dites d’analyse de vitesse par migration ont pour but la détermination d’un macro-modèle de vitesse, lisse, et contrôlant la cinématique de propagation des ondes. Le modèle est estimé par des critères de cohérence d’image ou de focalisation d’image. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. Des résultats récents proposent de coupler l’inversion asymptotique, qui donne des images beaucoup plus propres en pratique, avec l’analyse de vitesse pour la version offset en profondeur. Cette approche cependant demande des capacités de calcul et de mémoire importantes et ne peut actuellement être étendue en 3D.Dans ce travail, je propose de développer le couplage entre l’analyse de vitesse et la migration plus conventionnelle par point de tir. La nouvelle approche permet de prendre en compte des modèles de vitesse complexes, comme par exemple en présence d’anomalies de vitesses plus lentes ou de réflectivités discontinues. C’est une alternative avantageuse en termes d’implémentation et de coût numérique par rapport à la version profondeur. Je propose aussi d’étendre l’analyse de vitesse par inversion au domaine des données pour les cas par point de tir. J’établis un lien entre les méthodes formulées dans les domaines données et images. Les méthodologies sont développées et analysées sur des données synthétiques 2D. / Active seismic experiments are widely used to characterize the structure of the subsurface. Migration Velocity Analysis techniques aim at recovering the background velocity model controlling the kinematics of wave propagation. The first step consists of obtaining the reflectivity images by migrating observed data in a given macro velocity model. The estimated model is then updated, assessing the quality of the background velocity model through the image coherency or focusing criteria. Classical migration techniques, however, do not provide a sufficiently accurate reflectivity image, leading to incorrect velocity updates. Recent investigations propose to couple the asymptotic inversion, which can remove migration artifacts in practice, to velocity analysis in the subsurface-offset domain for better robustness. This approach requires large memory and cannot be currently extended to 3D. In this thesis, I propose to transpose the strategy to the more conventional common-shot migration based velocity analysis. I analyze how the approach can deal with complex models, in particular with the presence of low velocity anomaly zones or discontinuous reflectivities. Additionally, it requires less memory than its counterpart in the subsurface-offset domain. I also propose to extend Inversion Velocity Analysis to the data-domain, leading to a more linearized inverse problem than classic waveform inversion. I establish formal links between data-fitting principle and image coherency criteria by comparing the new approach to other reflection-based waveform inversion techniques. The methodologies are developed and analyzed on 2D synthetic data sets.
169

Nouvelles approches de tomographies hydrauliques en aquifère hétérogène : théories et applications en milieu karstique et fracturé. / New hydraulic tomography approaches in heterogeneous aquifer : theories and applications in karst and fractured fields

Fischer, Pierre 21 November 2018 (has links)
Ce manuscrit de thèse présente une nouvelle approche pour caractériser qualitativement et quantitativement la localisation et les propriétés des structures dans un aquifère fracturé et karstique à l’échelle décamétrique. Cette approche est basée sur une tomographie hydraulique menée à partir de réponses à une investigation de pompages et interprétée avec des méthodes d’inversions adaptées à la complexité des systèmes karstiques. L’approche est appliquée sur un site karstique d’étude expérimental en France, une première fois avec des signaux de pompage constants, et une deuxième fois avec des signaux de pompage harmoniques. Dans les deux cas, l’investigation a fourni des réponses de niveaux d’eau de nappe mesurés pendant des pompages alternés à différentes positions. L’interprétation quantitative de ces jeux de réponses consiste à les reproduire par un modèle avec un champ de propriété réaliste adéquat généré par inversion. Les méthodes d’inversions proposées dans ce manuscrit permettent de reconstruire un champ de propriétés hydrauliques réaliste en représentant les structures karstiques soit par un réseau généré par automates cellulaires, soit par un réseau discrétisé. Les résultats d’interprétations obtenus sur le site d’étude expérimental permettent d’imager les structures karstiques sur une carte et de « lire » leur localisation. De plus, les résultats obtenus avec les réponses à des pompages harmoniques tendent à montrer le rôle de la fréquence du signal sur les informations portées par les réponses. En effet, les fréquences plus élevées caractérisent mieux les structures les plus conductrices, alors que les fréquences plus faibles mobilisent des écoulements également dans des structures karstiques moins conductrices. / This thesis manuscript presents a novel approach to characterize qualitatively and quantitatively the structures localization and properties in a fractured and karstic aquifer at a decametric scale. This approach relies on a hydraulic tomography led from responses to a pumping investigation and interpreted with inversion methods adapted to the complexity of karstic systems. The approach is applied on a karstic experimental study site in France, a first time with constant pumping signals, and a second time with harmonic pumping signals. In both applications, the investigation resulted in groundwater level responses measured during alternated pumping tests at different locations. The quantitative interpretation of these sets of responses consists in reproducing these responses through a model with an adequate realistic property field generated by inversion. The inversion methods proposed in this manuscript permit to reconstruct a realistic hydraulic property field by representing the karstic structures either through a network generated by cellular automata, or through a discretized network. The interpretation results obtained on the experimental study site permit to image the karstic structures on a map and to‘read’ their localization. Furthermore, the results obtained with the responses to harmonic pumping tests tend to show the role of the signal frequency on the information carried by the responses. In fact, higher frequencies better characterize the most conductive structures, while lower frequencies mobilize flows also in less conductive karstic structures.
170

Développement de méthodes itératives pour la reconstruction en tomographie spectrale / Iterative methods for spectral computed tomography reconstruction

Tairi, Souhil 20 June 2019 (has links)
Depuis quelques années les détecteurs à pixels hybrides ont ouvert la voie au développement de la tomographie à rayon X spectrale ou tomodensitométrie (TDM) spectrale. La TDM spectrale permet d’extraire plus d’information concernant la structure interne de l’objet par rapport à la TDM d’absorption classique. Un de ses objectifs dans l’imagerie médicale est d’identifier et quantifier des composants d’intérêt dans un objet, tels que des marqueurs biologique appelés agents de contraste (iode, baryum, etc.). La majeure partie de l’état de l’art procède en deux étapes : - la "pré-reconstruction" qui consiste à séparer les composants dans l’espace des projections puis reconstruire, - la "post-reconstruction", qui reconstruit l’objet puis sépare les composants.On s’intéresse dans ce travail de thèse à une approche qui consiste à séparer et reconstruire simultanément les composants de l’objet. L’état de l’art des méthodes de reconstruction et séparation simultanées de données de TDM spectrale reste à ce jour peu fourni et les approches de reconstruction existantes sont limitées dans leurs performances et ne tiennent souvent pas compte de la complexité du modèle d’acquisition.L’objectif principal de ce travail de thèse est de proposer des approches de reconstruction et séparation tenant compte de la complexité du modèle afin d’améliorer la qualité des images reconstruites. Le problème à résoudre est un problème inverse, mal-posé, non-convexe et de très grande dimension. Pour le résoudre, nous proposons un algorithme proximal à métrique variable. Des résultats prometteurs sont obtenus sur des données réelles et montrent des avantages en terme de qualité de reconstruction. / In recent years, hybrid pixel detectors have paved the way for the development of spectral X ray tomography or spectral tomography (CT). Spectral CT provides more information about the internal structure of the object compared to conventional absorption CT. One of its objectives in medical imaging is to obtain images of components of interest in an object, such as biological markers called contrast agents (iodine, barium, etc.).The state of the art of simultaneous reconstruction and separation of spectral CT data methods remains to this day limited. Existing reconstruction approaches are limited in their performance and often do not take into account the complexity of the acquisition model.The main objective of this thesis work is to propose better quality reconstruction approaches that take into account the complexity of the model in order to improve the quality of the reconstructed images. Our contribution considers the non-linear polychromatic model of the X-ray beam and combines it with an earlier model on the components of the object to be reconstructed. The problem thus obtained is an inverse, non-convex and misplaced problem of very large dimensions.To solve it, we propose a proximal algorithmwith variable metrics. Promising results are shown on real data. They show that the proposed approach allows good separation and reconstruction despite the presence of noise (Gaussian or Poisson). Compared to existing approaches, the proposed approach has advantages over the speed of convergence.

Page generated in 0.158 seconds