• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 216
  • 76
  • 46
  • 30
  • 10
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 439
  • 439
  • 110
  • 101
  • 80
  • 75
  • 70
  • 69
  • 68
  • 64
  • 60
  • 56
  • 53
  • 52
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Image restoration in the presence of Poisson-Gaussian noise

Jezierska, Anna Maria 13 May 2013 (has links) (PDF)
This thesis deals with the restoration of images corrupted by blur and noise, with emphasis on confocal microscopy and macroscopy applications. Due to low photon count and high detector noise, the Poisson-Gaussian model is well suited to this context. However, up to now it had not been widely utilized because of theoretical and practical difficulties. In view of this, we formulate the image restoration problem in the presence of Poisson-Gaussian noise in a variational framework, where we express and study the exact data fidelity term. The solution to the problem can also be interpreted as a Maximum A Posteriori (MAP) estimate. Using recent primal-dual convex optimization algorithms, we obtain results that outperform methods relying on a variety of approximations. Turning our attention to the regularization term in the MAP framework, we study both discrete and continuous approximation of the $ell_0$ pseudo-norm. This useful measure, well-known for promoting sparsity, is difficult to optimize due to its non-convexity and its non-smoothness. We propose an efficient graph-cut procedure for optimizing energies with truncated quadratic priors. Moreover, we develop a majorize-minimize memory gradient algorithm to optimize various smooth versions of the $ell_2-ell_0$ norm, with guaranteed convergence properties. In particular, good results are achieved on deconvolution problems. One difficulty with variational formulations is the necessity to tune automatically the model hyperparameters. In this context, we propose to estimate the Poisson-Gaussian noise parameters based on two realistic scenarios: one from time series images, taking into account bleaching effects, and another from a single image. These estimations are grounded on the use of an Expectation-Maximization (EM) approach.Overall, this thesis proposes and evaluates various methodologies for tackling difficult image noise and blur cases, which should be useful in various applicative contexts within and beyond microscopy
182

Antenna characterization using phaseless near-field antenna measurements

Brown, Trevor 12 September 2016 (has links)
This thesis focuses on the application of electromagnetic inverse source techniques to characterize antennas using phaseless (amplitude-only) near-field (NF) measurement data. Removing the need to measure phase reduces the overall cost of the measurement apparatus since simple power meters can be used instead of expensive vector network analyzers. It has also been shown in the literature that a phaseless approach can improve the accuracy of the calculated far-field (FF) pattern in the presence of probe positioning errors compared to the amplitude-and-phase approach. A brief discussion on the state-of-the-art methods for characterizing antennas using phaseless near-field measurement data is presented. Two general approaches used most often to perform near-field to far-field (NF-FF) transformations, namely modal expansion and source reconstruction, are explained in detail for scenarios with and without phase information. A phaseless source reconstruction method (SRM) is the primary focus of this work. The SRM is an application of an electromagnetic inverse source technique and therefore, the complexities of solving the associated ill-posed inverse source problem are discussed. The application of the SRM to spherical and planar measurement geometries are presented along with the concerns regarding regularization resulting from discretizing the ill-posed system. A multiplicative regularization (MR) scheme originally developed for inverse scattering is adapted to suit the nonlinear cost functional for the phaseless planar measurement case and the mathematical framework is derived in detail. The resulting MR-SRM is fully automated and incorporates adaptive regularization. The developed algorithms are evaluated using several examples with synthetic phaseless NF data demonstrating the benefits and limitations of the source reconstruction method and the multiplicative regularization scheme. The application of the SRM to antenna diagnostics using phaseless NF data is also shown. Finally, the developed planar algorithms are tested with experimentally collected phaseless measurement data to demonstrate their potential as suitable antenna characterization techniques that can be of interest to the antenna measurement community. / October 2016
183

Développement d’outils numériques pour l'audit énergétique des bâtiments / Development of numerical tools for building energy audit

Brouns, Jordan 01 December 2014 (has links)
Le secteur du bâtiment représente aujourd'hui près de 45% de la facture énergétique nationale, et le parc des bâtiments existants se renouvelle lentement. L'audit énergétique est un outil d'aide à la décision permettant d'améliorer la performance des bâtiments en proposant des scénarios de rénovation adaptés. Cependant, les méthodes d'audit actuelles ne parviennent pas à saisir réellement les propriétés thermiques des bâtiments et les propositions de rénovation peuvent être inadaptées. Nous proposons une méthode innovante d'audit énergétique des bâtiments qui permet de réduire fortement les incertitudes sur les paramètres et la réponse thermique du modèle. Elle diffère des méthodes classiques par son protocole opératoire et ses outils de résolution numérique. En plus du recueil des scénarios d'usage, des caractéristiques thermiques des systèmes et du bâti, et des conditions climatiques, elle exploite l'information contenue dans la mesure de l'état thermique, composé des températures des pièces et des températures de surfaces de certaines parois et des émetteurs. Ces données alimentent un problème inverse d'identification de paramètres. L'utilisation d'un modèle aux EDP nous donne accès aux outils du contrôle optimal, et notamment à la méthode de l'état adjoint. Avec ce formalisme, le problème inverse se réécrit comme un problème d'optimisation non linéaire de calibration du modèle thermique. Les paramètres inconnus sont constitués des paramètres les plus influents : la capacité et la conductivité thermiques des parois, les caractéristiques des émetteurs, la transmittance des fenêtres et le débit de renouvellement d'air moyen. Nous proposons deux variantes de la méthode, que nous appliquons sur un cas d'étude numérique. La première nécessite les données de chaque puissance individuelle fournie aux émetteurs, et la seconde utilise une mesure globale de production de chaleur. L'approche est étudiée numériquement : le modèle thermique sert à la fois pour la génération des mesures et pour l'identification. Une fois les mesures de l'état thermique synthétisées, les paramètres retenus sont perturbés suivant les incertitudes classiques du bâtiment. Nous éprouvons la méthode sur un échantillon de tirages aléatoires, engendrant autant d'initialisations pour l'algorithme, afin de calculer l'incertitude de la méthode. L'allègement du protocole opératoire pour la seconde variante se traduit toutefois par une baisse de la précision de l'identification. Nous analysons la robustesse de la méthode lorsque les conditions climatiques de l'audit changent, que le bruit des capteurs de l'état thermique augmente, et pour de fortes incertitudes initiales des paramètres. Nous montrons que la méthode est stable par rapport au bruit des capteurs et que l'incertitude sur l'état thermique du bâtiment est globalement réduite. Afin d'améliorer la prise en compte de l'aéraulique, nous proposons une technique permettant de discriminer deux sources ayant des dynamiques différentes : l'une constante par morceaux, l'autre régulière dans le temps. La méthode résout un problème inverse prenant en compte la régularité des fonctions par projection. Cet outil est validé sur une étude expérimentale, dont les résultats démontrent la robustesse au bruit de mesure. Ce résultat constitue un jalon dans la volonté de s'affranchir de la contrainte de maîtrise de scénarios d'usage de la méthode d'audit. Enfin, nous proposons un formalisme inverse pour caractériser les propriétés thermiques d'une structure 3D à partir de mesures de température sur une partie de sa frontière. L'outil permet de reconstruire différentes formes et natures de défauts. Il pourrait trouver des débouchés dans la caractérisation de défauts d'isolation ou de ponts thermiques / The building sector currently accounts for nearly 45% of the national energy bill, and the existing buildings are slowly renewed. Energy audit is a tool for decision support to improve building performance by providing suitable renovation strategies. However, actual energy audit methods fail to completely determine the building thermal properties, and the proposed retrofit strategies may be inappropriate. We propose an innovative energy audit method which significantly reduces the uncertainties on the building thermal parameters and the thermal state. It differs from conventional methods by its operating protocol and its numerical resolution. In addition to the collection of use scenarios, thermal characteristics of built and systems, and weather conditions, it exploits the information embedded in the measurement of the thermal state, composed of the temperatures of the rooms, and the surface temperature of walls and heating devices. This data feed an inverse problem of parameters identification. Using a model for EDP gives us a direct access to the tools of the optimal control theory, including the adjoint state method. With this formalism, the inverse problem can be rewritten as a nonlinear optimization problem of the calibration of the thermal model. The unknown parameters consist of the most influential parameters of the building thermal model: the heat capacity and the thermal conductivity of the walls, the heaters characteristics, the windows transmittance and the mean rate of air renewal. We propose two alternatives to the method. The first requires the data of each individual power provided to heating device, and the second uses a global measure of the heat production. We apply them on a numerical case study: the thermal model is used for both the measures generation and the parameters identification. Once the thermal state measurements are synthesized, the selected parameters are disturbed by conventional uncertainties of the building. We investigate the method on a randomly generated sample, which gives us as many starting values for the algorithm. This allows to compute the uncertainty of the method. Reducing the operating protocol for the second alternative results in a decrease of the identification accuracy. We analyze the robustness of the method when the weather conditions of the audit change, when the sensor noise of the thermal state increases, and when we deal with strong initial parameter uncertainties. We show that the method is stable compared to the sensor noise and the thermal response of the rooms is generally well reconstructed. In order to improve the ventilation consideration, we then propose a technique to distinguish two thermal sources whose dynamics differ: one piecewise constant, and one smooth in time. The method is to solve an inverse problem, taking into account the temporal regularity of functions by a projection step. This tool has been validated on an experimental study, and the results demonstrate robustness to measurement noise. This result is a milestone in the will to overcome the constraint of precisely describing to use scenarios in the audit methodology. Finally, we propose an inverse formalism to characterize the thermal properties of a 3D structure from temperature measurements on a part of its boundary. The tool allows the reconstruction of various types and forms of internal defects. He could find opportunities in the thermal building diagnostics for characterizing insulation defects or thermal bridges
184

Bayesian methods for inverse problems in signal and image processing / Méthodes bayésiennes pour la résolution des problèmes inverses de grande dimension en traitement du signal et des images

Marnissi, Yosra 25 April 2017 (has links)
Les approches bayésiennes sont largement utilisées dans le domaine du traitement du signal. Elles utilisent des informations a priori sur les paramètres inconnus à estimer ainsi que des informations sur les observations, pour construire des estimateurs. L'estimateur optimal au sens du coût quadratique est l'un des estimateurs les plus couramment employés. Toutefois, comme la loi a posteriori exacte a très souvent une forme complexe, il faut généralement recourir à des outils d'approximation bayésiens pour l'approcher. Dans ce travail, nous nous intéressons particulièrement à deux types de méthodes: les algorithmes d'échantillonnage Monte Carlo par chaînes de Markov (MCMC) et les approches basées sur des approximations bayésiennes variationnelles (VBA).La thèse est composée de deux parties. La première partie concerne les algorithmes d'échantillonnage. Dans un premier temps, une attention particulière est consacrée à l'amélioration des méthodes MCMC basées sur la discrétisation de la diffusion de Langevin. Nous proposons une nouvelle méthode pour régler la composante directionnelle de tels algorithmes en utilisant une stratégie de Majoration-Minimisation ayant des propriétés de convergence garanties. Les résultats expérimentaux obtenus lors de la restauration d'un signal parcimonieux confirment la rapidité de cette nouvelle approche par rapport à l'échantillonneur usuel de Langevin. Dans un second temps, une nouvelle méthode d'échantillonnage basée sur une stratégie d'augmentation des données est proposée pour améliorer la vitesse de convergence et les propriétés de mélange des algorithmes d'échantillonnage standards. L'application de notre méthode à différents exemples en traitement d'images montre sa capacité à surmonter les difficultés liées à la présence de corrélations hétérogènes entre les coefficients du signal.Dans la seconde partie de la thèse, nous proposons de recourir aux techniques VBA pour la restauration de signaux dégradés par un bruit non-gaussien. Afin de contourner les difficultés liées à la forme compliquée de la loi a posteriori, une stratégie de majoration est employée pour approximer la vraisemblance des données ainsi que la densité de la loi a priori. Grâce à sa flexibilité, notre méthode peut être appliquée à une large classe de modèles et permet d'estimer le signal d'intérêt conjointement au paramètre de régularisation associé à la loi a priori. L'application de cette approche sur des exemples de déconvolution d'images en présence d'un bruit mixte Poisson-gaussien, confirme ses bonnes performances par rapport à des méthodes supervisées de l'état de l'art. / Bayesian approaches are widely used in signal processing applications. In order to derive plausible estimates of original parameters from their distorted observations, they rely on the posterior distribution that incorporates prior knowledge about the unknown parameters as well as informations about the observations. The posterior mean estimator is one of the most commonly used inference rule. However, as the exact posterior distribution is very often intractable, one has to resort to some Bayesian approximation tools to approximate it. In this work, we are mainly interested in two particular Bayesian methods, namely Markov Chain Monte Carlo (MCMC) sampling algorithms and Variational Bayes approximations (VBA).This thesis is made of two parts. The first one is dedicated to sampling algorithms. First, a special attention is devoted to the improvement of MCMC methods based on the discretization of the Langevin diffusion. We propose a novel method for tuning the directional component of such algorithms using a Majorization-Minimization strategy with guaranteed convergence properties.Experimental results on the restoration of a sparse signal confirm the performance of this new approach compared with the standard Langevin sampler. Second, a new sampling algorithm based on a Data Augmentation strategy, is proposed to improve the convergence speed and the mixing properties of standard MCMC sampling algorithms. Our methodological contributions are validated on various applications in image processing showing the great potentiality of the proposed method to manage problems with heterogeneous correlations between the signal coefficients.In the second part, we propose to resort to VBA techniques to build a fast estimation algorithm for restoring signals corrupted with non-Gaussian noise. In order to circumvent the difficulties raised by the intricate form of the true posterior distribution, a majorization technique is employed to approximate either the data fidelity term or the prior density. Thanks to its flexibility, the proposed approach can be applied to a broad range of data fidelity terms allowing us to estimate the target signal jointly with the associated regularization parameter. Illustration of this approach through examples of image deconvolution in the presence of mixed Poisson-Gaussian noise, show the good performance of the proposed algorithm compared with state of the art supervised methods.
185

A Bayesian Approach for Inverse Problems in Synthetic Aperture Radar Imaging / Une approche bayésienne pour les problèmes inverses en imagerie Radar à Synthèse d'Ouverture

Zhu, Sha 23 October 2012 (has links)
L'imagerie Radar à Synthèse d'Ouverture (RSO) est une technique bien connue dans les domaines de télédétection, de surveillance aérienne, de géologie et de cartographie. Obtenir des images de haute résolution malgré la présence de bruit, tout en prenant en compte les caractéristiques des cibles dans la scène observée, les différents incertitudes de mesure et les erreurs resultantes de la modélisation, devient un axe de recherche très important.Les méthodes classiques, souvent fondées sur i) la modélisation simplifiée de la scène ; ii) la linéarisation de la modélisation directe (relations mathématiques liant les signaux reçus, les signaux transmis et les cibles) simplifiée ; et iii) l'utilisation de méthodes d'inversion simplifiées comme la Transformée de Fourier Inverse (TFI) rapide, produisent des images avec une résolution spatiale faible, peu robustes au bruit et peu quantifiables (effets des lobes secondaires et bruit du speckle).Dans cette thèse, nous proposons d'utiliser une approche bayésienne pour l'inversion. Elle permettrais de surmonter les inconvénients mentionnés des méthodes classiques, afin d'obtenir des images stables de haute résolution ainsi qu'une estimation plus précise des paramètres liés à la reconnaissance de cibles se trouvant dans la scène observée.L'approche proposée est destinée aux problèmes inverses de l'imagerie RSO mono-, bi-, et multi- statique ainsi que l'imagerie des cibles à micromouvement. Les a priori appropriés de modélisation permettant d'améliorer les caractéristiques des cibles pour des scènes de diverses natures seront présentées. Des méthodes d'estimation rapides et efficaces utilistant des a priori simples ou hiérarchiques seront développées. Le problème de l'estimation des hyperparameters sera galement traité dans le cadre bayésin. Les résultats relatifs aux données synthétiques, expérimentales et réelles démontrent l'efficacité de l'approche proposée. / Synthetic Aperture Radar (SAR) imaging is a well-known technique in the domain of remote sensing, aerospace surveillance, geography and mapping. To obtain images of high resolution under noise, taking into account of the characteristics of targets in the observed scene, the different uncertainties of measure and the modeling errors becomes very important.Conventional imaging methods are based on i) over-simplified scene models, ii) a simplified linear forward modeling (mathematical relations between the transmitted signals, the received signals and the targets) and iii) using a very simplified Inverse Fast Fourier Transform (IFFT) to do the inversion, resulting in low resolution and noisy images with unsuppressed speckles and high side lobe artifacts.In this thesis, we propose to use a Bayesian approach to SAR imaging, which overcomes many drawbacks of classical methods and brings high resolution, more stable images and more accurate parameter estimation for target recognition.The proposed unifying approach is used for inverse problems in Mono-, Bi- and Multi-static SAR imaging, as well as for micromotion target imaging. Appropriate priors for modeling different target scenes in terms of target features enhancement during imaging are proposed. Fast and effective estimation methods with simple and hierarchical priors are developed. The problem of hyperparameter estimation is also handled in this Bayesian approach framework. Results on synthetic, experimental and real data demonstrate the effectiveness of the proposed approach.
186

Análise inversa em sólidos bidimensionais utilizando o método dos elementos de contorno / Inverse analysis in two-dimensional solid using the boundary element method

Ferreira, Manoel Dênis Costa 30 May 2007 (has links)
A aplicação da análise inversa é objeto de estudo nos mais diversos campos da ciência e da engenharia. A motivação para o tratamento de tais problemas se deve ao fato de que em muitas aplicações dessas áreas do conhecimento, há a necessidade da identificação de parâmetros físicos e geométricos a partir de dados do domínio medidos experimentalmente, já que tais parâmetros de entrada são desconhecidos para uma análise direta do problema. Neste tipo de análise o problema principal está na quantidade e qualidade dos dados experimentais obtidos, que são na maioria das vezes insuficientes para garantir que o sistema gerado apresente solução única, gerando com isto um problema essencialmente mal-posto. Assim, de forma geral o emprego confiável da análise inversa implica na utilização de ferramentas eficientes de aquisição de dados experimentais aliada a técnicas numéricas de regularização que buscam a minimização da função objetiva gerada por algum método numérico, como por exemplo, o método dos elementos de contorno (MEC). Sendo assim, o presente trabalho tem por objetivo apresentar uma formulação para resolução de problemas inversos de valor de contorno e estimativa dos parâmetros do modelo coesivo, através de medidas de campos de deslocamentos, em sólidos bidimensionais com domínio formado por multi-regiões via (MEC), utilizando-se de técnicas tais como: mínimos quadrados, regularização de Tikhonov, decomposição em valor singular (SVD) e filtro de Tikhonov, para regularização do problema. Além disto, são apresentados alguns exemplos de aplicação da formulação desenvolvida. / The application of inverse analysis is nowadays subject of research of many fields in engineering and science. The motivation to consider this problem is due to the fact that in many applications of these knowledge areas, physical and geometric parameters, that are not directly known, can be identified using domain data measured experimentally. In this kind of analysis the main problem is the quantity and the quality of the obtained experimental data, which, many times, are not sufficient to guarantee that the generated system of equations has only one solution, leading therefore to an ill-posed problem. Thus, in general the reliable use of the inverse analysis requires using efficient tools for experimental data acquisition together with the numerical techniques of regularization needed to impose the minimization of the objective function written by using any numerical method, as the boundary element method (BEM) for instance. In this context, the objective of the present work is to derive a formulation for resolution of boundary-value inverse problems and to estimate the material parameters of the cohesive model, by using measured displacements fields, in multi-region two-dimensional solid by BEM, using techniques such as: least squares, Tikhonov regularization, singular value decomposition (SVD) and Tikhonov filtering, for the problem regularization. Some application examples are presented using the developed formulation to illustrate its performance.
187

Simulation temps réel en dynamique non linéaire : application à la robotique souple / Real time simulation in non linear dynamics : application in soft robots

Montagud, Santiago 13 December 2018 (has links)
L’intégration des méthodes numériques dans les procédés industriels à son origine à l’apparition des ordinateurs, et est de plus en plus intégré parallèlement au développement de la technologie. Dans le cadre des procédés industriels où interviennent des structures en mouvement, il est intéressant d’avoir de méthodes de calcul rapide pour de problèmes non linéaires, comme par exemple, la manipulation de matériaux souples par robots. La résolution de ce type de problème reste encore comme un défi pour l’ingénierie. Malgré l’existence de nombreuses méthodes pour résoudre les problèmes dynamiques, aucun n’est adaptée à la simulation en temps réel. Pour la façon de résolution, nous avons divisé le problème dynamique en deux sous-problèmes : le problème direct, qui consiste à calculer les déplacements en fonction de la force appliqué, et le problème inverse, dans lequel on calcule la force en fonction des déplacements appliqués. / Integration of numeric methodes in industrial procedures starts with the development of the computers, and its being integrated as its grows the technology. In the industrial procedures where moving structrues are involved, its necessary the hability of fast computing in non lineare problems, for example, material manipulation by soft robots. The solution of this kind of problems is still a challenge for the engineering. Despite the existance of numerous methodes to solve the dynamic problem, non of them is adapted to real time simulation. By the way of facing the problem, we have divised the dynamic problem in two subproblems: the direct problem, where displacements are computed when an external force is applied, and the inverse problem, where the external force is computed from the displacements.
188

Méthodologie de caractérisation et de modélisation d'un joint adhésif sous sollicitations multiaxiales dynamiques. / Methodology for characterization and modelling of an adhesive joint under dynamic multiaxial loadings

Janin, Anthony 12 October 2018 (has links)
Les joints adhésifs sont de plus en plus utilisés dans des structures industrielles critiques. Ils sont donc susceptibles de subir des chargements dynamiques complexes. Les méthodes de caractérisation dynamiques existantes ne caractérisent pas seulement le joint adhésif, mais l'assemblage collé tout entier. Cette thèse propose une méthode innovante pour caractériser un joint adhésif sous sollicitations dynamiques multiaxiales. La méthode expérimentale repose sur trois éléments principaux: i) un système de barres d'Hopkinson conventionnel (SHPB), ii) une nouvelle géométrie d'éprouvette, nommée DODECA, qui permet d'appliquer trois chargements multiaxiaux différents et iii) des mesures locales de déformation et de contrainte par corrélation d'images. La contrainte et la déformation dans le joint adhésif sont estimées directement à partir des données expérimentales pendant le chargement jusqu'au point de rupture. Une autre approche basée sur la méthode FEMU (Finite Element Model Updating) a été utilisée pour compléter le modèle du joint adhésif. Une méthode inverse numérique a été développée pour obtenir les paramètres élastiques, plastiques et de rupture du joint adhésif. De plus, des outils qualitatifs ont été proposés pour estimer les incertitudes sur les paramètres identifiés. Ce travail a prouvé l'intérêt de l'imagerie rapide locale pour caractériser les joints adhésifs.Cette méthode innovante a été validée sur une autre éprouvette nommée BIADH45. Cette dernière étude a aussi mis l'accent sur de nouveaux domaines de recherche : en particulier, le rôle des interfaces dans la rupture du joint adhésif et l'intérêt des substrats en CMO dans la caractérisation dynamique des joints adhésifs. / Adhesive joints are increasingly employed for bonding critical parts of industrial structures. Therefore, they are subject to complex dynamic loadings. Existing dynamic characterization techniques do not characterize only the adhesive joint, but the complete assembly. This thesis proposes an innovative experimental technique for the characterization of adhesive joints under dynamic multiaxial loadings. The experimental method relies on three main components: i) a conventional split Hopkinson pressure bar (SHPB) apparatus, ii) a novel specimen, denoted as DODECA, which enables testing of three distinct multiaxial loadings using the same method and iii) local strain and stress measurements performed by digital image correlation (DIC). The stress and strain in the adhesive joint are estimated directly from the experimental data both during loading and at the failure point. Another approach based on the Finite Element Model Updating method (FEMU) has been used to complete the adhesive joint model. A numerical inverse method has been developed to obtain elastic, plastic and fracture parameters. Besides, qualitative tools have been proposed to estimate uncertainties on identified parameters. This work has proven the value of local high-speed imaging to characterize adhesive joints.This innovative method has been validated on another specimen denoted as BIADH45. This last study has also emphasized new research interests : in particular, the role of the interfaces in the adhesive joint failure and the benefit of substrates in CMO in dynamic characterization of adhesive joints.
189

Solveurs performants pour l'optimisation sous contraintes en identification de paramètres / Efficient solvers for constrained optimization in parameter identification problems

Nifa, Naoufal 24 November 2017 (has links)
Cette thèse vise à concevoir des solveurs efficaces pour résoudre des systèmes linéaires, résultant des problèmes d'optimisation sous contraintes dans certaines applications de dynamique des structures et vibration (la corrélation calcul-essai, la localisation d'erreur, le modèle hybride, l'évaluation des dommages, etc.). Ces applications reposent sur la résolution de problèmes inverses, exprimés sous la forme de la minimisation d'une fonctionnelle en énergie. Cette fonctionnelle implique à la fois, des données issues d'un modèle numérique éléments finis, et des essais expérimentaux. Ceci conduit à des modèles de haute qualité, mais les systèmes linéaires point-selle associés, sont coûteux à résoudre. Nous proposons deux classes différentes de méthodes pour traiter le système. La première classe repose sur une méthode de factorisation directe profitant de la topologie et des propriétés spéciales de la matrice point-selle. Après une première renumérotation pour regrouper les pivots en blocs d'ordre 2. L'élimination de Gauss est conduite à partir de ces pivots et en utilisant un ordre spécial d'élimination réduisant le remplissage. Les résultats numériques confirment des gains significatifs en terme de remplissage, jusqu'à deux fois meilleurs que la littérature pour la topologie étudiée. La seconde classe de solveurs propose une approche à double projection du système étudié sur le noyau des contraintes, en faisant une distinction entre les contraintes cinématiques et celles reliées aux capteurs sur la structure. La première projection est explicite en utilisant une base creuse du noyau. La deuxième est implicite. Elle est basée sur l'emploi d'un préconditionneur contraint avec des méthodes itératives de type Krylov. Différentes approximations des blocs du préconditionneur sont proposées. L'approche est implémentée dans un environnement distribué parallèle utilisant la bibliothèque PETSc. Des gains significatifs en terme de coût de calcul et de mémoire sont illustrés sur plusieurs applications industrielles. / This thesis aims at designing efficient numerical solution methods to solve linear systems, arising in constrained optimization problems in some structural dynamics and vibration applications (test-analysis correlation, model error localization,hybrid model, damage assessment, etc.). These applications rely on solving inverse problems, by means of minimization of an energy-based functional. This latter involves both data from a numerical finite element model and from experimental tests, which leads to high quality models, but the associated linear systems, that have a saddle-point coefficient matrices, are long and costly to solve. We propose two different classes of methods to deal with these problems. First, a direct factorization method that takes advantage of the special structures and properties of these saddle point matrices. The Gaussian elimination factorization is implemented in order to factorize the saddle point matrices block-wise with small blocks of orders 2 and using a fill-in reducing topological ordering. We obtain significant gains in memory cost (up to 50%) due to enhanced factors sparsity in comparison to literature. The second class is based on a double projection of the generated saddle point system onto the nullspace of the constraints. The first projection onto the kinematic constraints is proposed as an explicit process through the computation of a sparse null basis. Then, we detail the application of a constraint preconditioner within a Krylov subspace solver, as an implicit second projection of the system onto the nullspace of the sensors constraints. We further present and compare different approximations of the constraint preconditioner. The approach is implemented in a parallel distributed environment using the PETSc library. Significant gains in computational cost and memory are illustrated on several industrial applications.
190

Resolution improvement in fluorescence and phase optical microscopy

Mudry, Emeric 25 September 2012 (has links)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice. / Various fields of experimental science are constantly requiring smaller resolution for optical microscopy. In this thesis are presented several works for improving resolution in fluorescence microscopy and in Tomographic Diffraction Microscopy (TDM), an emerging phase microscopy technique. In the first part it is shown that one can improve the axial resolution in depositing the sample on a mirror. In confocal fluorescence microscopy, this is done by shaping the illumination beam with a Spatial Light Modulator. In TDM this is done by adapting the reconstruction method. Then algorithms are proposed for reconstructing high-resolution images from structured illumination measurements with unknown illumination fields, both in fluorescence imaging (blind-SIM algorithm) and in TDM. This allows a dramatical simplification of the experimental set-ups in fluorescence structured illumination and the image reconstruction of high optical index samples in TDM.

Page generated in 0.063 seconds