• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 256
  • 76
  • 46
  • 36
  • 20
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 495
  • 495
  • 145
  • 135
  • 80
  • 76
  • 75
  • 69
  • 69
  • 68
  • 65
  • 61
  • 57
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Selected heat conduction problems in thermomechanical treatment of steel

Martin, D. C. (David Charles) 20 September 2011 (has links)
Abstract This thesis considers two related problems where heat conduction is accompanied by phase transformation during the cooling of carbon steels – phenomena which are fundamental to modern thermomechanical treatment processes. In the first problem, a non-linear heat equation formulation is described which includes linkage between irreversible diffusive and diffusionless phase transformation processes and thermophysical properties. A family of numerical schemes using finite difference methods with diagonally implicit Runge-Kutta method integrators for solving this formulation is present. Sample calculations using these schemes are presented for a mild steel cooled under range of industrially relevant heat transfer conditions. These calculations illustrate the need for careful scheme design and solver selection when coupled heat conduction and microstructure evolution equations become non-linear and stiff. The second section of the thesis extends this heat conduction formulation into the realm of inverse analysis. The problem of temperature reconstruction and boundary condition estimation using temperature measurements obtained thermocouples embedded into laboratory samples undergoing phase transformation is considered. A solution method based on iterative regularization is described for solving the resulting ill-posed problem. An analysis of extremely high rate cooling experiments made on a pilot-plant descaling unit using the inverse method is presented. This analysis highlights some of the practical issues associated with embedded thermocouple temperature measurements made in this fashion. / Tiivistelmä Väitöstyössä tutkitaan kahta ongelmaa liittyen hiiliteräksen termomekaanisen käsittelyn numeeriseen mallintamiseen. Työssä tarkastellaan teräksessä tapahtuvaa lämmönsiirtoa ja faasimuutoksia jäähdytyksen aikana, eli ensisijaisen tärkeitä ilmiöitä kehittynyttä teräksen valmistusta ja prosessointia ajatellen. Ensimmäisenä ongelmana tutkitaan epälineaarisen energiayhtälön muodostaminen huomioiden teräksen termofysikaaliset materiaaliominaisuudet, diffuusion kontrolloimat ja diffuusiosta riippumattomat irreversiibelit faasimuutokset. Lisäksi huomioidaan näiden väliset kytkennät. Yhtälöt ratkaistaan numeerisesti ja käytetyt menetelmät esitellään differenssimenetelmien ja diagonaalisesti implisiittisten Runge-Kutta-menetelmien osalta. Väitöstyössä näiden käyttöä havainnollistetaan simuloimalla niukkahiilisen teräksen käyttäytymistä teollisia olosuhteita vastaavan jäähdytyksen aikana. Laskentatulokset osoittavat ratkaisumenetelmän suunnittelun ja valinnan tärkeyden erityisesti silloin, kun lämmönjohtuminen, mikrorakenteen kehittyminen ja termofysikaaliset materiaaliominaisuudet muuttavat ratkaistavan ongelman epälineaariseksi ja jäykäksi. Toisena ongelmana tutkitaan edellä esitetyn lämmönsiirtomallin käyttöä osanainversioanalyysiä. Laboratoriokokeiden, termopareilla suoritettujen lämpötilamittausten, työssä kehitetyn lämmönsiirtomallin ja suoritetun inversioanalyysin avulla rekonstruoidaan teräskappaleiden lämpötila- ja faasimuutoskäyttäytymistä sekä estimoidaan mallin reunaehtoja. Näin luotu inversio-ongelma on kuitenkin matemaattisesti tarkasteltuna ns. huonosti asetettu ongelma, ja sen ratkaisemiseksi käytetään iteratiiviseen säännöllistämiseen perustuvaa menetelmää. Väitöstyön inversioanalyysiä havainnollistetaan pilot-mittakaavan kokeiden avulla, joissa hilsepesuria käyttäen koekappaleen jäähtymisnopeus saadaan erittäin korkeaksi. Tulokset nostavat esille inversio-analyysiin liittyviä ongelmia ja rajoitteita nopeaan jäähtymiseen sekä lämpötilamittauksiin liittyen.
342

Reconstruction en tomographie dynamique par approche inverse sans compensation de mouvement / Reconstruction in dynamic tomography by an inverse approach without motion compensation

Momey, Fabien 20 June 2013 (has links)
La tomographie est la discipline qui cherche à reconstruire une donnée physique dans son volume, à partir de l’information indirecte de projections intégrées de l’objet, à différents angles de vue. L’une de ses applications les plus répandues, et qui constitue le cadre de cette thèse, est l’imagerie scanner par rayons X pour le médical. Or, les mouvements inhérents à tout être vivant, typiquement le mouvement respiratoire et les battements cardiaques, posent de sérieux problèmes dans une reconstruction classique. Il est donc impératif d’en tenir compte, i.e. de reconstruire le sujet imagé comme une séquence spatio-temporelle traduisant son “évolution anatomique” au cours du temps : c’est la tomographie dynamique. Élaborer une méthode de reconstruction spécifique à ce problème est un enjeu majeur en radiothérapie, où la localisation précise de la tumeur dans le temps est un prérequis afin d’irradier les cellules cancéreuses en protégeant au mieux les tissus sains environnants. Des méthodes usuelles de reconstruction augmentent le nombre de projections acquises, permettant des reconstructions indépendantes de plusieurs phases de la séquence échantillonnée en temps. D’autres compensent directement le mouvement dans la reconstruction, en modélisant ce dernier comme un champ de déformation, estimé à partir d’un jeu de données d’acquisition antérieur. Nous proposons dans ce travail de thèse une approche nouvelle ; se basant sur la théorie des problèmes inverses, nous affranchissons la reconstruction dynamique du besoin d’accroissement de la quantité de données, ainsi que de la recherche explicite du mouvement, elle aussi consommatrice d’un surplus d’information. Nous reconstruisons la séquence dynamique à partir du seul jeu de projections courant, avec pour seules hypothèses a priori la continuité et la périodicité du mouvement. Le problème inverse est alors traité rigoureusement comme la minimisation d’un terme d’attache aux données et d’une régularisation. Nos contributions portent sur la mise au point d’une méthode de reconstruction adaptée à l’extraction optimale de l’information compte tenu de la parcimonie des données — un aspect typique du problème dynamique — en utilisant notamment la variation totale (TV) comme régularisation. Nous élaborons un nouveau modèle de projection tomographique précis et compétitif en temps de calcul, basé sur des fonctions B-splines séparables, permettant de repousser encore la limite de reconstruction imposée par la parcimonie. Ces développements sont ensuite insérés dans un schéma de reconstruction dynamique cohérent, appliquant notamment une régularisation TV spatio-temporelle efficace. Notre méthode exploite ainsi de façon optimale la seule information courante à disposition ; de plus sa mise en oeuvre fait preuve d’une grande simplicité. Nous faisons premièrement la démonstration de la force de notre approche sur des reconstructions 2-D+t à partir de données simulées numériquement. La faisabilité pratique de notre méthode est ensuite établie sur des reconstructions 2-D et 3-D+t à partir de données physiques “réelles”, acquises sur un fantôme mécanique et sur un patient / Computerized tomography (CT) aims at the retrieval of 3-D information from a set of projections acquired at different angles around the object of interest (OOI). One of its most common applications, which is the framework of this Ph.D. thesis, is X-ray CT medical imaging. This reconstruction can be severely impaired by the patient’s breath (respiratory) motion and cardiac beating. This is a major challenge in radiotherapy, where the precise localization of the tumor is a prerequisite for cancer cells irradiation with preservation of surrounding healthy tissues. The field of methods dealing with the reconstruction of a dynamic sequence of the OOI is called Dynamic CT. Some state-of-the-art methods increase the number of projections, allowing an independent reconstruction of several phases of the time sampled sequence. Other methods use motion compensation in the reconstruction, by a beforehand estimation on a previous data set, getting the explicit motion through a deformation model. Our work takes a different path ; it uses dynamic reconstruction, based on inverse problems theory, without any additional information, nor explicit knowledge of the motion. The dynamic sequence is reconstructed out of a single data set, only assuming the motion’s continuity and periodicity. This inverse problem is considered as a minimization of an error term combined with a regularization. One of the most original features of this Ph.D. thesis, typical of dynamic CT, is the elaboration of a reconstruction method from very sparse data, using Total Variation (TV) as a very efficient regularization term. We also implement a new rigorously defined and computationally efficient tomographic projector, based on B-splines separable functions, outperforming usual reconstruction quality in a data sparsity context. This reconstruction method is then inserted into a coherent dynamic reconstruction scheme, applying an efficient spatio-temporal TV regularization. Our method exploits current data information only, in an optimal way ; moreover, its implementation is rather straightforward. We first demonstrate the strength of our approach on 2-D+t reconstructions from numerically simulated dynamic data. Then the practical feasibility of our method is established on 2-D and 3-D+t reconstructions of a mechanical phantom and real patient data
343

Formulação e implementação da versão direta do metodo dos elementos de contorno para tratamento de problemas acusticos estacionarios bidimensionais diretos e inversos / Formulation and implementation of a direct version of the boundary element method to describe stationary bidimensional direct inverse acoustic problems

Menoni, Jose Antonio 07 June 2004 (has links)
Orientador: Euclides de Mesquita Neto / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-04T01:41:44Z (GMT). No. of bitstreams: 1 Menoni_JoseAntonio_D.pdf: 11918799 bytes, checksum: c09bbd80eae74f22092698eb851e1578 (MD5) Previous issue date: 2004 / Resumo: Este trabalho trata da formulação e da implementação da versão direta do Método dos Elementos de Contorno (MEC) para tratamento de problemas acústicos bidimensionais estacionários regidos pelo operador diferencial de Helrnholtz. São abordados tanto problemas internos, associados a domínios limitados, quanto problemas externos, associados a domínios ilimitados. A tese ainda aborda a solução de problemas diretos e inversos. A transformação da equação de Helrnholtz em Equação Integral de Contorno, bem como a síntese de sua Solução Fundamental é recuperada de forma detalhada no texto. Para o caso de problemas internos duas técnicas são estudadas para recuperação de grandezas modais de cavidades acústicas. A primeira é baseada na pesquisa direta das raÍzes do polinômio característico e a segunda é baseada na informação obtida a partir de Funções de Resposta em Freqüência sintetizadas pelo MEC. Os problemas da radiação e espalhamento acústico são formulados, implementados e validados. O trabalho apresenta ainda a solução de problemas inversos, no qual as variáveis acústicas em um contorno geométrico conhecido são determinadas a partir de medições em uma superficie fechada e que envolve o corpo radiante. Duas técnicas são utilizadas no processo inverso, a Decomposição em Valores Singulares e a técnica de regularização de Tikhonov. Discute-se a precisão e eficiência destas técnicas em função dos parâmetros que são variáveis presentes nestas técnicas / Abstract: The present Thesis reports a formulation and an implementation of the direct version of the Boundary Element Method (BEM) to model direct and indirect bidimensional stationary acoustic problems governed by the Helrnholz differential operator. Both internal and external problems, associated, respectively to bounded and unbounded domains, are treated in the analysis. The transformation of the Helmholtz differential equation into an equivalent Boundary Integral Equation (BIE) and the synthesis of its Fundamental Solution is recovered in detail. For internal problem two techniques are employed to obtain modal quantities of acoustic cavities. The fIrs is the direct search method of the characteristic polynomial roots. The second strategy is based on numerical Frequency Response Functions, synthesized by the BEM. Radiation and scatter problems are formulated, implemented and validated within the realm of the Boundary Element Method. The present work still addresses the solution of an inverse problem. The inverse problem consists of determining the acoustic variables on the boundary of a radiating or scattering body of known geometry, based on the acoustic fIelds measured over a c10sed surface which embodies the analized body. Two technique to solve the inversion problem are discussed. The fIrst is the Single Value Decomposition strategy and the other is the Tikhonov regularization strategy. The accuracy of this techniques are discussed as functions of the internal parameters which are intrinsic to those strategies / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
344

Mesures optiques de profils de turbulence pour les futurs systèmes d'optique adaptative et d'observation / Optical measurements of turbulence profiles for future adaptive optics and observation systems

Nguyen, Khanh Linh 18 December 2018 (has links)
La connaissance de la turbulence atmosphérique en visée horizontale permet de mieux appréhender la physique des flux de chaleur à l’interface sol-atmosphère. Elle permet également, en visée verticale, d’améliorer les performances des futurs systèmes d’optique adaptative grand-champ pour l’observation astronomique. Le profil de Cn² caractérise localement la force de la turbulence. La méthode CO-SLIDAR, développée par l’ONERA, permet de réaliser des profils de Cn² le long de la ligne de visée du télescope à partir des pentes et de scintillations mesurées par un Analyseur de Shack-Hartmann sur source double. Cette méthode a été validée en visée verticale mais n’avait pas encore montré son efficacité en visée horizontale. Les deux expériences à Lannemezan et à Châtillon-Meudon ont vu la mise en place d'un nouveau profilomètre Shack-Hartmann Infrarouge : le SCINDAR. Elles ont été réalisées sur des surfaces respectivement hétérogène et homogène par morceaux, et elles participent à la validation de la méthode pour des applications agronomiques et écologiques. Mon étude consiste à améliorer le traitement du signal du profilomètre SCINDAR et à valider la méthode CO-SLIDAR pour des mesures de la turbulence atmosphérique proche du sol. Cette méthode a été adaptée en utilisant un formalisme de propagation en onde sphérique. L'étude a permis d'identifier et prendre en compte des sources d'erreur dans le traitement : à savoir la vibration de la machine à froid de l'analyseur de front d'onde cryogénique du SCINDAR et l'étendue des sources dans les fonctions de poids du modèle direct posé pour le traitement des données. Mon étude se consacre à l’amélioration du traitement des données du SCINDAR et à la validation expérimentale des profils de Cn² obtenus avec des mesures de Cn² acquises par des scintillomètres. J'ai construit tout d'abord une base de données de pentes et scintillations de qualité vérifiée. Pour l'inversion des données, j'ai choisi la régularisation L1L2 qui est adaptée pour des mesures de Cn² proches du sol. La méthode de réglage des hyperparamètres de cette régularisation est non-supervisée. Elle permet d’augmenter la fiabilité et la précision de l’estimation du profil de Cn² de façon pragmatique à l'aide des erreurs relatives sur les paramètres turbulents macroscopiques. Le profilomètre SCINDAR avec la méthode CO-SLIDAR ainsi améliorée produit finalement des profils de Cn² d'excellente qualité. Ces profils sont comparés avec succès aux mesures des scintillomètres. L’ensemble de ces travaux constitue l'adaptation de la méthode CO-SLIDAR pour des mesures de la turbulence proche du sol. / The knowledge of atmospheric turbulence in horizontal aim allows to better understand the physics of the heat fluxes at the ground-atmosphere interface. It also allows, in vertical aim, to improve the performance of future wide-field adaptive optics systems for astronomical observation. The profile of Cn²locally characterizes the force of turbulence. The CO-SLIDAR method, developed by ONERA, allows profiles of Cn² along the line of sight of the telescope, from the slopes and scintillations of a double source measured by Shack-Hartmann analyzer. This method was validated in vertical aim but had not yet shown its effectiveness in horizontal aim. The two experiments in Lannemezan and Châtillon-Meudon introduced a new Shack-Hartmann Infrared profilometer: the SCINDAR. They were carried out on heterogeneous and piecewise homogeneous surfaces respectively, and they participate in the validation of the method for agronomic and ecological applications. My study consists of improving SCINDAR profilometer signal processing and validating the CO-SLIDAR method for near-ground atmospheric turbulence measurements. This method has been adapted using a spherical wave propagation formalism. The study identified and took into account sources of error in processing: the cold machine vibration of the SCINDAR cryogenic wavefront analyzer and the extent of the sources in the weight functions of the direct model set for data processing. My study focuses on improvement of the SCINDAR data processing and experimental validation profiles Cn² obtained with Cn² measurements acquired by scintillometers. I first built a database of slopes and scintillations of verified quality. For the inversion of the data, I chose the L1L2 regularization which is suitable for near-ground Cn² measurements. The method of setting the hyperparameters of this regularization is unsupervised. It makes it possible to increase the reliability and the accuracy of the Cn² profile estimation in a pragmatic way using the relative errors of the macroscopic turbulent parameters. The SCINDAR profilometer with the improved CO-SLIDAR method finally produces Cn² profiles of excellent quality. These profiles are successfully compared to scintillometer measurements. All of this work constitues the adaptation of the CO-SLIDAR method for measurements of near-ground turbulence.
345

Identification de paramètres et analyses de sensibilité pour un modèle d'usinage par jet d'eau abrasif / Identification of unknown model parameters and sensitivity analysis for abrasive waterjet milling process

Groza, Vladimir 09 November 2016 (has links)
Ce travail fait partie du projet Marie-Curie ITN STEEP, dans le domaine des faisceaux énergétiques. Nous étudions ici l'identification de paramètres pour un modèle générique d'usinage par jet d'eau abrasif. L'étude de ce problème trouve son origine dans les applications industrielles d'usinage, où la nécessité de modéliser et prédire la surface finale avec une très grande précision est essentielle en l'absence de connaissance des paramètres du modèle Nous proposons ici une méthode d'identification des paramètres du modèle basée sur la minimisation d'une fonction coût, mesurant la différence entre la solution numérique et les observations expérimentales. L'approche variationnelle, basée sur le Lagrangien, permet de considérer l'adjoint, et l'utilisation d'un logiciel de différentiation automatique (TAPENADE) conduit à une identification rapide et précise des paramètres, quelles que soient la complexité et la taille du problème étudié. La qualité de l'identification peut être fortement instable et dépendre largement des données expérimentales en cas de bruit. Nous introduisons alors des termes de régularisation permettant de gérer la présence d'erreurs de mesure. Plusieurs cas d'usinage par jet abrasif sont considérés: problème stationnaire, jet qui se déplace à vitesse constante, ou en accélérant, utilisation synthétiques ou réelles L'étude de sensibilité montre la robustesse de l'approche, qui permet d'obtenir de très bons résultats acceptables d'un point de vue industriel / This work is part of STEEP Marie-Curie ITN project, covering the research in field of energy beam processing. We focus on the identification of unknown parameters of the proposed generic Abrasive WaterJet Milling (AWJM) model. The necessity of studying this problem comes from the industrial milling applications where the possibility to predict and model the final surface with high accuracy is one of the primary tasks in the absence of any knowledge of the model parameters that should be used. We propose the method of the model parameters identification by minimizing a cost function, measuring the difference between experimental observation and numerical solution. The variational approach based on corresponding Lagrangian allows to obtain the adjoint state and the involvement of the automatic differentiation software tool (TAPENADE) leads to fast and efficient parameters identification. In fact the parameter identification problem is highly unstable and strictly depends on quality of input data. Regularization terms could be effectively used to deal with the presence of measurement errors. Various cases of the AWJM process such as a stationary problem and moving with constant feed speed or acceleration are studied based on both artificial and real experimental data. The sensitivity study related to these particular problems demonstrates the strong capability of the proposed approach to obtain acceptable
346

Variability modeling and numerical biomarkers design in cardiac electrophysiology / Modélisation de la variabilité et design de biomarqueurs numériques en électrophysiologie cardiaque

Tixier, Eliott 18 December 2017 (has links)
Cette thèse de doctorat est consacrée à l'étude de la variabilité observée dans les mesures d'électrophysiologie (i.e. l'activité électrique des tissus biologiques) cardiaque et à la conception de biomarqueurs numériques extraits de ces mesures. Les applications potentielles sont nombreuses, pouvant aller d'une meilleure compréhension des modèles électrophysiologiques existants à l'évaluations des effets nocifs de médicaments en passant par le diagnostic de pathologies cardiaques. Les modèles d'électrophysiologie cardiaque présentés dans ce travail sont, soit des équations différentielles ordinaires (EDOs), soit des équations aux dérivées partielles (EDPs), selon qu'ils concernent l'échelle cellulaire ou l'échelle du tissu. Dans les deux cas, ces modèles sont hautement non linéaires et nécessitent d'intenses ressources computationnelles. Nous adoptons l'approche suivante : de prime abord, nous développons des outils numériques afin de répondre à des problèmes généraux, au-delà de l'électrophysiologie. Puis, nous appliquons ces outils à des mesures synthétiques d'électrophysiologie dans différents scénarios réalistes et, lorsque cela est possible, à des mesures expérimentales. Dans la première partie de cette thèse, nous présentons une méthode générale pour estimer la densité de probabilité de paramètres incertains de modèles basés sur des EDOs ou des EDPs. La méthode est non intrusive et repose sur des évaluations "hors-ligne" du modèle direct, ce qui la rend en pratique computationellement moins dispendieuse que d'autres approches plus sophistiquées. La méthode est illustrée avec des mesures synthétiques et expérimentales d'électrophysiologie. Dans la seconde partie de cette thèse, nous présentons une méthode de sélectionde biomarqueurs à partir des sorties de modèles en vue d'effectuer des tâches de classification ou de résoudre des problèmes d'estimation de paramètres. La méthode repose sur la résolution d'un problème d'optimisation creux. La méthode est illustrée avec des modèles simples et ensuite appliquée à des mesures synthétiques, incluant des enregistrements d'électrocardiogramme, et à des données expérimentales obtenues à partir de mesures de matrices de microélectrodes. / This PhD thesis is dedicated to the study of the variability observed in cardiac electrophysiology (i.e. the electrical activity of biological tissues) measurements and to the design of numerical biomarkers extracted from these measurements. The potential applications are numerous, ranging from a better understanding of existing electrophysiology models to the assessment of adverse effects of drugs or the diagnosis of cardiac pathologies. The cardiac electrophysiology models considered in the present work are either ODEs or PDEs depending on whether we focus on the cell scale or the tissue scale. In both cases, these models are highly non-linear and computationally intensive. We proceed as follows: first we develop numerical tools that address general issues and that are applicable beyond the scope of cardiac electrophysiology. Then, we apply those tools to synthetic electrophysiology measurements in various realistic scenarios and, when available, to real experimental data. In the first part of this thesis, we present a general method for estimating the probability density function (PDF) of uncertain parameters of models based on ordinary differential equations (ODEs) or partial differential equations (PDEs). The method is non-instrusive and relies on offline evaluations of the forward model, making it computationally cheap in practice compared to more sophisticated approaches. The method is illustrated with generic PDE and ODE models. It is then applied to synthetic and experimental electrophysiology measurements. In the second part of this thesis, we present a method to extract and select biomarkers from models outputs in view of performing classication tasks or solving parameter identification problems. The method relies on the resolution of a sparse optimization problem. The method is illustrated with simple models and then applied to synthetic measurements, including electrocardiogram recordings, and to experimental data obtained from micro-electrode array measurements.
347

Super-resolution in wave imaging / Super-résolution en imagerie par ondes

Wintz, Timothée 26 June 2017 (has links)
Les différentes modalités d’imagerie par ondes présentent chacune des limitations en termes de résolution ou de contraste. Dans ce travail, nous modélisons l’imagerie ultrasonore ultrarapide et présentons des méthodes de reconstruction qui améliorent la précision de l’imagerie ultrasonore. Nous introduisons deux méthodes qui permettent d’augmenter le contraste et de mesurer la position super-résolue et la vitesse dans les vaisseaux sanguins. Nous présentons aussi une méthode de reconstruction des paramètres microscopiques en tomographie d’impédance électrique en utilisant des mesures multifréquence et en s’aidant de la théorie de l’homogénéisation. / Different modalities in wave imaging each present limitations in terms of resolution or contrast. In this work, we present a mathematical model of the ultrafast ultrasound imaging modality and reconstruction methods which can improve contrast and resolution in ultrasonic imaging. We introduce two methods which allow to improve contrast and to locate blood vessels belowthe diffraction limit while simultaneously estimating the blood velocity. We also present a reconstruction method in electrical impedance tomography which allows reconstruction of microscopic parameters from multi-frequency measurements using the theory of homogenization.
348

Approches tomographiques structurelles pour l'analyse du milieu urbain par tomographie SAR THR : TomoSAR / Structural tomographic approaches for urban area analysis using high resolution SAR tomography : TomoSAR

Rambour, Clément 18 February 2019 (has links)
La tomographie SAR exploite plusieurs acquisitions d'une même zone acquises d'un point de vue légerement différent pour reconstruire la densité complexe de réflectivité au sol. Cette technique d'imagerie s'appuyant sur l'émission et la réception d'ondes électromagnétiques cohérentes, les données analysées sont complexes et l'information spatiale manquante (selon la verticale) est codée dans la phase. De nombreuse méthodes ont pu être proposées pour retrouver cette information. L'utilisation des redondances naturelles à certains milieux n'est toutefois généralement pas exploitée pour améliorer l'estimation tomographique. Cette thèse propose d'utiliser l'information structurelle propre aux structures urbaines pour régulariser les densités de réflecteurs obtenues par cette technique. / SAR tomography consists in exploiting multiple images from the same area acquired from a slightly different angle to retrieve the 3-D distribution of the complex reflectivity on the ground. As the transmitted waves are coherent, the desired spatial information (along with the vertical axis) is coded in the phase of the pixels. Many methods have been proposed to retrieve this information in the past years. However, the natural redundancies of the scene are generally not exploited to improve the tomographic estimation step. This Ph.D. presents new approaches to regularize the estimated reflectivity density obtained through SAR tomography by exploiting the urban geometrical structures.
349

Stratégies de résolution numérique pour des problèmes d'identification de fissures et de conditions aux limites / Numerical resolution strategies for cracks and boundary conditions identification problems

Ferrier, Renaud 27 September 2019 (has links)
Le but de cette thèse est d'étudier et de développer des méthodes permettant de résoudre deux types de problèmes d'identification portant sur des équations elliptiques. Ces problèmes étant connus pour leur caractère fortement instable, les méthodes proposées s'accompagnent de procédures de régularisation, qui permettent d'assurer que la solution obtenue conserve un sens physique.Dans un premier temps, on étudie la résolution du problème de Cauchy (identification de conditions aux limites) par la méthode de Steklov-Poincaré. On commence par proposer quelques améliorations basées sur le solveur de Krylov utilisé, en introduisant notamment une méthode de régularisation consistant à tronquer la décomposition de Ritz de l'opérateur concerné. Par la suite, on s'intéresse à l'estimation d'incertitude en utilisant des techniques issues de l'inversion Bayésienne. Enfin, on cherche à résoudre des problèmes plus exigeants, à savoir un problème transitoire en temps, un cas non-linéaire, et on donne des éléments pour effectuer des résolutions sur des géométries ayant un très grand nombre de degrés de liberté en s'aidant de la décomposition de domaine.Pour ce qui est du problème d'identification de fissures par la méthode de l'écart à la réciprocité, on commence par proposer et tester numériquement différents moyens de stabiliser la résolution (utilisation de fonctions-tests différentes, minimisation des gradients a posteriori ou régularisation de Tikhonov). Puis on présente une autre variante de la méthode de l'écart à la réciprocité, qui est applicable aux cas pour lesquels les mesures sont incomplètes. Cette méthode, basée sur une approche de Petrov-Galerkine, est confrontée entre autres à un cas expérimental. Enfin, on s'intéresse à certaines idées permettant d'étendre la méthode de l'écart à la réciprocité à l'identification de fissures non planes. / The goal of this thesis is to study and to develop some methods in order to solve two types of identification problems in the framework of elliptical equations. As those problems are known to be particularly unstable, the proposed methods are accompanied with regularization procedures, that ensure that the obtained solutions keep a physical meaning.Firstly, we study the resolution of the Cauchy problem (boundary conditions identification) by the Steklov-Poincaré method. We start by proposing some improvements based on the used Krylov solver, especially by introducing a regularization method that consists in truncating the Ritz values decomposition of the operator in question. We study afterwards the estimation of uncertainties by the mean of techniques stemming from Bayesian inversion. Finally, we aim at solving more demanding problems, namely a time-transient problem, a non-linear case, and we give some elements to carry out resolutions on geometries that have a very high number of degrees of freedom, with help of domain decomposition.As for the problem of crack identification by the reciprocity gap method, we firstly propose and numerically test some ways to stabilize the resolution (use of different test-functions, a posteriori minimization of the gradients or Tikhonov regularization). Then we present an other variant of the reciprocity gap method, that is applicable on cases for which the measurements are incomplete. This method, based on a Petrov-Galerkin approach, is confronted, among others, with an experimental case. Finally, we investigate some ideas that allow to extend the reciprocity gap method for the identification of non-plane cracks.
350

Méthodes et algorithmes avancés pour l'imagerie astronomique de haute précision / Advanced methods and algorithm for high precision astronomical imaging

Ngolè Mboula, Fred Maurice 18 October 2016 (has links)
L'un des challenges majeurs de la cosmologie moderne réside en la nature même de la matière et de l'énergie noire. La matière noire peut être directement tracée à travers son effet gravitationnel sur les formes des galaxies. La mission Euclid de l'Agence Spatiale Européenne fournira précisément des données à cette fin. L'exploitation de telles données requiert une modélisation précise de la Fonction d'Étalement du Point (FEP) de l'instrument d'observation, ce qui constitue l'objectif de cette thèse.Nous avons développé des méthodes non-paramétriques permettant d'estimer de manière fiable la FEP sur l'ensemble du champ de vue d'un instrument, à partir d'images non résolues d'étoiles, ceci en tenant compte du bruit, d'un possible sous-échantillonnage des observations et de la variabilité spatiale de la FEP. Ce travail tire avantage d'outils et concepts mathématiques modernes parmi lesquelles la parcimonie. Une extension importante de ce travail serait de prendre en compte la dépendance en longueur d'onde de la FEP. / One of the biggest challenges of modern cosmology is to gain a more precise knowledge of the dark energy and the dark matter nature. Fortunately, the dark matter can be traced directly through its gravitational effect on galaxies shapes. The European Spatial Agency Euclid mission will precisely provide data for such a purpose. A critical step is analyzing these data will be to accurately model the instrument Point Spread Function (PSF), which the focus of this thesis.We developed non parametric methods to reliably estimate the PSFs across an instrument field-of-view, based on unresolved stars images and accounting for noise, undersampling and PSFs spatial variability. At the core of these contributions, modern mathematical tools and concepts such as sparsity. An important extension of this work will be to account for the PSFs wavelength dependency.

Page generated in 0.0809 seconds