• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 158
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 375
  • 190
  • 142
  • 90
  • 87
  • 71
  • 60
  • 57
  • 50
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Étude structurale du linéament ligure : : télédétection et données de terrain.

Carrère, Véronique, Unknown Date (has links)
Th. 3e cycle--Sci. nat.--Paris 6, 1981.
122

Méthodes itératives pour la reconstruction tomographique régularisée / Iterative Methods in regularized tomographic reconstruction

Paleo, Pierre 13 November 2017 (has links)
Au cours des dernières années, les techniques d'imagerie par tomographie se sont diversifiées pour de nombreuses applications. Cependant, des contraintes expérimentales conduisent souvent à une acquisition de données limitées, par exemple les scans rapides ou l'imagerie médicale pour laquelle la dose de rayonnement est une préoccupation majeure. L'insuffisance de données peut prendre forme d'un faible rapport signal à bruit, peu de vues, ou une gamme angulaire manquante. D'autre part, les artefacts nuisent à la qualité de reconstruction. Dans ces contextes, les techniques standard montrent leurs limitations. Dans ce travail, nous explorons comment les méthodes de reconstruction régularisée peuvent répondre à ces défis. Ces méthodes traitent la reconstruction comme un problème inverse, et la solution est généralement calculée par une procédure d'optimisation. L'implémentation de méthodes de reconstruction régularisée implique à la fois de concevoir une régularisation appropriée, et de choisir le meilleur algorithme d'optimisation pour le problème résultant. Du point de vue de la modélisation, nous considérons trois types de régularisations dans un cadre mathématique unifié, ainsi que leur implémentation efficace : la variation totale, les ondelettes et la reconstruction basée sur un dictionnaire. Du point de vue algorithmique, nous étudions quels algorithmes d'optimisation de l'état de l'art sont les mieux adaptés pour le problème et l'architecture parallèle cible (GPU), et nous proposons un nouvel algorithme d'optimisation avec une vitesse de convergence accrue. Nous montrons ensuite comment les modèles régularisés de reconstruction peuvent être étendus pour prendre en compte les artefacts usuels : les artefacts en anneau et les artefacts de tomographie locale. Nous proposons notamment un nouvel algorithme quasi-exact de reconstruction en tomographie locale. / In the last years, there have been a diversification of the tomography imaging technique for many applications. However, experimental constraints often lead to limited data - for example fast scans, or medical imaging where the radiation dose is a primary concern. The data limitation may come as a low signal to noise ratio, scarce views or a missing angle wedge.On the other hand, artefacts are detrimental to reconstruction quality.In these contexts, the standard techniques show their limitations.In this work, we explore how regularized tomographic reconstruction methods can handle these challenges.These methods treat the problem as an inverse problem, and the solution is generally found by the means of an optimization procedure.Implementing regularized reconstruction methods entails to both designing an appropriate regularization, and choosing the best optimization algorithm for the resulting problem.On the modelling part, we focus on three types of regularizers in an unified mathematical framework, along with their efficient implementation: Total Variation, Wavelets and dictionary-based reconstruction. On the algorithmic part, we study which state-of-the-art convex optimization algorithms are best fitted for the problem and parallel architectures (GPU), and propose a new algorithm for an increased convergence speed.We then show how the standard regularization models can be extended to take the usual artefacts into account, namely rings and local tomography artefacts. Notably, a novel quasi-exact local tomography reconstruction method is proposed.
123

Détermination des champs de température et de concentration par spectroscopie dans une combustion / Characterization of the fields’ temperature and concentration by spectroscopy in a combustion

Lebedinsky, Jérémy 11 December 2013 (has links)
L’objectif de cette thèse était de développer et d’appliquer une nouvelle méthode de mesure permettant de dresser des cartographies instantanées des températures et des concentrations des diverses espèces présentes dans les gaz de combustion et aider à la détermination des performances de moteurs et mieux comprendre les mécanismes de réaction.Pour cela, un moyen de mesure optique, non intrusif pour ne pas interagir sur le fonctionnement du moteur, a été mis au point, ce qui a permis ainsi une meilleure analyse des performances et donc une mise au point plus rapide des moteurs. De par ses caractéristiques, le système peut réaliser des mesures résolues temporellement et spatialement. Outre les investigations dans les écoulements réactifs des propulseurs à réaction, ce système de mesure peut être également utilisé ultérieurement pour la mise au point des moteurs cycliques à détonation, à allumage commandé (essence) ou par compression (diesel, HCCI). Les temps de réponse (inférieures à 10 μs) du moyen de mesure sont compatibles avec les phénomènes étudiés. Cette technique de mesure peut également être embarquable sur un aéronef pour effectuer des mesures en vol.Le but était donc de mettre au point un système optique permettant la mesure de ces différents paramètres à distance. La spectroscopie est un outil adapté à cette étude. C’est une méthode physique non intrusive qui, associée à un LIDAR (télédétection laser), permet la mesure précise et instantanée de la température et de la concentration des gaz de combustion et de connaître leur évolution temporelle. Il peut être envisagé par la suite de mesurer directement l’avancement de la combustion afin d’améliorer le rendement et par voie de conséquence diminuer les rejets de polluants. / The aim of the present PhD thesis was to develop and apply a new measurement technique allowing one to create maps of the temperature and t-he concentration of various species within combustion gas, to determine the performances of the engines and get a better understanding of the reaction mechanisms.In order to do so, a non-invasive optical measurement technique was setup. This has enabled us to have better an analysis of the performances and hence, a faster adjustment of the engines. Thanks to its characteristics, the system is able to do some spatial and temporal resolved measurements. Apart from reacting flows in propellers, this measurement technique can also be used for the design of detonation and spark ignition engines or compression engines. The response times (lower than 10 μs) are compatible with the phenomena under investigation. This technique can also be used in airplanes to enable on-flight measurements.The aim was hence to setup an optical system allowing the measurement of these different parameters from a distance. Spectroscopy is a well-suited tool for this work. It is a non-intrusive physical measurement which, combined with LIDAR, allows the precise and instantaneous measurement of the temperature and the concentration of combustion gas as well as the following of their temporal evolution. It would be worth considering measuring the progress of the combustion directly so as to improve the performance and hence reduce the formation of pollutants.
124

Problèmes inverses pour l’équation de Schrödinger / Inverse problem related to the Schrödinger equation

Mejri, Youssef 20 December 2017 (has links)
Les travaux de recherche présentés dans cette thèse sont consacrés à l’étude de la stabilité dans divers problèmes inverses associés à l’équation de Schrödinger magnétique. Dans la première partie, on s’intéresse à un problème inverse concernant l’équation de Schrödinger autonome posée dans un domaine cylindrique non borné, avec potentiel magnétique périodique. On démontre à l’aide d’une construction de solutions particulières, dites solutions de type "optique géométrique", que le champ magnétique induit par le potentiel périodique est déterminé de façon stable à partir une infinité d’observations latérales de la solution, contenues dans l’opérateur de Dirichlet-Neumann. La deuxième partie de la thèse porte sur le même type de problèmes inverses mais associés à l’équation de Schrödinger magnétique non autonome. Dans un premier temps, on montre l’existence d’une unique solution régulière de cette équation dans un domaine borné ou non. Ensuite, on s’intéresse au problème inverse de la détermination simultanée des potentiels magnétique et électrique dans un domaine borné, à partir d’un nombre fini d’observations latérales de la solution. Enfin, on prouve que dans un domaine cylindrique infini, le potentiel magnétique peut être reconstruit de façon Lipschitz stable à partir d’un nombre fini d’observations de type Neumann. / This thesis, is devoted to the study of inverse problems related to the Schrödinger equation. The first partof the thesis is devoted to study the boundary inverse problem of determining the alignedmagnetic field appearing in the magnetic Schrödinger equation in a periodic quantum cylindricalwaveguide. From the Dirichlet-to-Neumann map of the magnetic Schrödinger equation,we prove a Hölder stability estimate with respect to the Dirichlet-to-Neumann map, by meansof the geometrical optics solutions of the magnetic Schrödinger equation.The second part of this thesis deals with the inverse problem of determining the magnetic field and the electricpotential appearing in the magnetic Schrödinger equation, from the knowledge of a finitenumber of lateral observations of the solution.
125

Détermination de propriétés des glaciers polaires par modélisation numérique et télédétection, / Ice sheet properties inferred by combining numerical modeling and remote sensing data

Morlighem, Mathieu 22 December 2011 (has links)
Les calottes polaires, ou inlandsis, sont parmi les principaux contributeurs à la montée des océans. Ces systèmes dynamiques gagnent de la masse par accumulation de neige, et en perdent par fonte au contact de l’océan et à la surface, ainsi que par le vêlage d’icebergs. Depuis plus de trois décennies, les observations ont montré que les calottes polaires de l’Antarctique et du Groenland perdent plus de masse qu’ils n’en gagnent. L’évolution des glaciers suite à ce déséquilibre de masse est devenue aujourd’hui l’une des problématiques les plus importantes des implications du changement climatique. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a identifié la contribution des glaciers comme l’un des facteurs clés d’incertitude de prédiction de l’élévation du niveau des mers. La modélisation numérique est le seul outil efficace pour répondre à cette question. Cependant, modéliser l’écoulement de glace à l’échelle du Groenland ou de l’Antarctique représente un défi à la fois scientifique et technique. Deux aspects clés de l’amélioration de la modélisation des glaciers sont abordés dans cette thèse. Le premier consiste à déterminer certaines propriétés non mesurables de la glace par méthode inverse. La friction ou la rigidité des barrières de glace, sont des paramètres qui ne peuvent être mesurés directement et doivent donc être déduits à partir d’observations par télédétection. Nous appliquons ici ces inversions pour trois modèles d’écoulement de glace de complexité croissante: le modèle bidimensionnel de MacAyeal/Morland, le modèle dit d’ordre supérieur de Blatter/Pattyn et le modèle full-Stokes. Les propriétés ainsi calculées sont ensuite utilisées pour initialiser des modèles grande-échelle et pour déterminer le degré de complexité minimum nécessaire pour reproduire correctement la dynamique des glaciers. Le second aspect abordé dans ce travail est l’amélioration de la consistance des données pour la modélisation numérique. Les données disponibles sont souvent issues de campagnes de mesures s’étalant sur plusieurs années et dont résolutions spatiales varient, ce qui rend leur utilisation pour des simulations numériques difficiles. Nous présentons ici un algorithme basé sur la conservation de la masse et les méthodes inverses pour construire des épaisseurs de glace qui sont consistantes avec les mesures de vitesse. Cette approche empêche la redistribution artificielle de masse qu’engendrent généralement les autres méthodes de cartographie de l’épaisseur de glace, ce qui améliore considérablement l’initialisation des modèles d’écoulement de glace. Les avancées présentées ici sont des étapes importantes afin de mieux caractériser de manière précise les glaciers et de modéliser leur évolution de manière réaliste. / Ice sheets are amongst the main contributors to sea level rise. They are dynamic systems; they gain mass by snow accumulation, and lose it by melting at the ice-ocean interface, surface melting and iceberg calving at the margins. Observations over the last three decades have shown that the Greenland and Antarctic ice sheets have been losing more mass than they gain. How the ice sheets respond to this negative mass imbalance has become today one of the most urgent questions in understanding the implications of global climate change. The Intergovernmental Panel on Climate Change (IPCC) has indeed identified the contribution of the ice sheets as a key uncertainty in sea level rise projections. Numerical modeling is the only effective way of addressing this problem. Yet, modeling ice sheet flow at the scale of Greenland and Antarctica remains scientifically and technically very challenging. This thesis focuses on two major aspects of improving ice sheet numerical models. The first consists of determining non-observable ice properties using inverse methods. Some parameters, such as basal friction or ice shelf hardness, are difficult to measure and must be inferred from remote sensing observations. Inversions are developed here for three ice flow models of increasing complexity: MacAyeal/Morland’s shelfy-stream model, Blatter/Pattyn’s higher order model and the full-Stokes model. The inferred parameters are then used to initialize large-scale ice sheet models and to determine the minimum level of complexity required to capture ice dynamics correctly. The second aspect addressed in this work is the improvement of dataset consistency for ice sheet modeling. Available datasets are often collected at different epochs and at varying spatial resolutions, making them not readily usable for numerical simulations. We devise here an algorithm based on the conservation of mass principle and inverse methods to construct ice thicknesses that are consistent with velocity measurements. This approach therefore avoids the artificial mass redistributions that occur in existing algorithms for mapping ice thickness, hence considerably improving ice sheet model initialization. The advances made here are important steps towards the ultimate objective of accurate characterization of ice sheets and the realistic modeling of their evolution.
126

Identification of material parameters in linear elasticity - some numerical results

Hein, Torsten, Meyer, Marcus 28 November 2007 (has links) (PDF)
In this paper we present some numerical results concerning the identification of material parameters in linear elasticity by dealing with small deformations. On the basis of a precise example different aspects of the parameter estimation problem are considered. We deal with practical questions such as the experimental design for obtaining sufficient data for recovering the unknown parameters as well as questions of treating the corresponding inverse problems numerically. Two algorithms for solving these problems can be introduced and extensive numerical case studies are presented and discussed.
127

Computation experimental DIC hybrid strategy for robust 3D ductile plastic law identification / Calcul expérimental d'une stratégie hybride DIC pour l'identification de la loi plastique ductile robuste en 3D

Muhibullah, . 27 November 2012 (has links)
La validation du modèle de réponse globale des échantillons ou des structures présente des lacunes qui peuvent être surmontés par l'utilisation de techniques de mesure de plein champ. Les techniques de mesure plein champ offrent la possibilité d'acquérir une quantité importante de données expérimentales qui pourraient être utiles dans le cadre de l'identification des paramètres de la Loi de comportement. Parmi les techniques de mesure de champ complet, le plus populaire est la corrélation d'images mono et stéréo. Les stratégies existantes pour rendre l'utilisation des données de plein champ comme la méthode de champ virtuel, la méthode écart d'équilibre, la méthode de Gap équation Constitutive et la méthode de réciprocité ont été limitées à des applications 2D. Cependant, pour un échantillon d'épaisseur finie, les effets 3D doivent être remplis. Plus important encore, dans le cas de la plasticité, triaxialité du stress joue un rôle important. Son effet doit donc être inscrits dans la modélisation du comportement de la matière. Ainsi, dans cette thèse, nous proposons une méthode pour identifier les paramètres d'une loi de comportement élasto-plastique dans lequel le modèle mécanique peut comporter cinématique 3D. La stratégie s'est avérée être le bruit robuste, presque indépendamment de la conjecture de paramètre initial et de raffinement de maillage et permet de différencier les modèles de comportement avec la même réponse globale sur la base de l'erreur de corrélation moyenne. L'identification est avérée bon pour une ou plusieurs caméras. La validation de la stratégie est faite d'acier inoxydable. La réponse globale du déplacement de charge identifié de la stratégie avec la corrélation d'image mécanique mono et stéréo est très proche des expériences. Enfin, les paramètres du matériau ont été identifiés avec l’estimation initial très différents mais tous convergent vers les mêmes valeurs finales qui montrent la solidité de la stratégie proposée. / The objective of the thesis is to formulate a strategy that gives a robust identification of constitutive law from full-field measurements taking into account 3D effects. Model validation from global response of samples or structures has shortcomings that can be overcome by the use of full-field measurement techniques. Full-field measurement techniques offer the opportunity to acquire large amount of experimental data that might be useful in the context of identification of constitutive law parameters. Among the full field measurement techniques the most popular is digital and stereo image correlation. The existing strategies to make use of full-field data like the Virtual Field Method, the Equilibrium Gap Method, the Constitutive Equation Gap Method and the Reciprocity Method were limited to 2D applications. However, for a specimen with finite thickness 3D effects must be included. Most importantly, for the case of plasticity, stress triaxiality plays an important role. Its effect must therefore be accounted for in the modelling of the constitutive behaviour of the material. Thus in this thesis we propose a method to identify the parameters of an elasto-plastic constitutive law in which the mechanical model can have 3D kinematics. The strategy has been shown to be noise robust, almost independent of initial parameter guess and mesh refinement and allows differentiating between constitutive models with same global response on the basis of mean correlation error. The identification is shown to be good for both single and multiple cameras. The strategy validation is done for stainless steel. The global identified load displacement response of the strategy for mono and stereo mechanical image correlation is very close to the experiments. Lastly, the material parameters have been identified with very different initial guess but all converge to the same final values which show the robustness of the proposed strategy.
128

Cosparse regularization of physics-driven inverse problems / Régularisation co-parcimonieuse de problèmes inverse guidée par la physique

Kitic, Srdan 26 November 2015 (has links)
Les problèmes inverses liés à des processus physiques sont d'une grande importance dans la plupart des domaines liés au traitement du signal, tels que la tomographie, l'acoustique, les communications sans fil, le radar, l'imagerie médicale, pour n'en nommer que quelques uns. Dans le même temps, beaucoup de ces problèmes soulèvent des défis en raison de leur nature mal posée. Par ailleurs, les signaux émanant de phénomènes physiques sont souvent gouvernées par des lois s'exprimant sous la forme d'équations aux dérivées partielles (EDP) linéaires, ou, de manière équivalente, par des équations intégrales et leurs fonctions de Green associées. De plus, ces phénomènes sont habituellement induits par des singularités, apparaissant comme des sources ou des puits d'un champ vectoriel. Dans cette thèse, nous étudions en premier lieu le couplage entre de telles lois physiques et une hypothèse initiale de parcimonie des origines du phénomène physique. Ceci donne naissance à un concept de dualité des régularisations, formulées soit comme un problème d'analyse coparcimonieuse (menant à la représentation en EDP), soit comme une parcimonie à la synthèse équivalente à la précédente (lorsqu'on fait plutôt usage des fonctions de Green). Nous dédions une part significative de notre travail à la comparaison entre les approches de synthèse et d'analyse. Nous défendons l'idée qu'en dépit de leur équivalence formelle, leurs propriétés computationnelles sont très différentes. En effet, en raison de la parcimonie héritée par la version discrétisée de l'EDP (incarnée par l'opérateur d'analyse), l'approche coparcimonieuse passe bien plus favorablement à l'échelle que le problème équivalent régularisé par parcimonie à la synthèse. Nos constatations sont illustrées dans le cadre de deux applications : la localisation de sources acoustiques, et la localisation de sources de crises épileptiques à partir de signaux électro-encéphalographiques. Dans les deux cas, nous vérifions que l'approche coparcimonieuse démontre de meilleures capacités de passage à l'échelle, au point qu'elle permet même une interpolation complète du champ de pression dans le temps et en trois dimensions. De plus, dans le cas des sources acoustiques, l'optimisation fondée sur le modèle d'analyse \emph{bénéficie} d'une augmentation du nombre de données observées, ce qui débouche sur une accélération du temps de traitement, plus rapide que l'approche de synthèse dans des proportions de plusieurs ordres de grandeur. Nos simulations numériques montrent que les méthodes développées pour les deux applications sont compétitives face à des algorithmes de localisation constituant l'état de l'art. Pour finir, nous présentons deux méthodes fondées sur la parcimonie à l'analyse pour l'estimation aveugle de la célérité du son et de l'impédance acoustique, simultanément à l'interpolation du champ sonore. Ceci constitue une étape importante en direction de la mise en œuvre de nos méthodes en en situation réelle. / Inverse problems related to physical processes are of great importance in practically every field related to signal processing, such as tomography, acoustics, wireless communications, medical and radar imaging, to name only a few. At the same time, many of these problems are quite challenging due to their ill-posed nature. On the other hand, signals originating from physical phenomena are often governed by laws expressible through linear Partial Differential Equations (PDE), or equivalently, integral equations and the associated Green’s functions. In addition, these phenomena are usually induced by sparse singularities, appearing as sources or sinks of a vector field. In this thesis we primarily investigate the coupling of such physical laws with a prior assumption on the sparse origin of a physical process. This gives rise to a “dual” regularization concept, formulated either as sparse analysis (cosparse), yielded by a PDE representation, or equivalent sparse synthesis regularization, if the Green’s functions are used instead. We devote a significant part of the thesis to the comparison of these two approaches. We argue that, despite nominal equivalence, their computational properties are very different. Indeed, due to the inherited sparsity of the discretized PDE (embodied in the analysis operator), the analysis approach scales much more favorably than the equivalent problem regularized by the synthesis approach. Our findings are demonstrated on two applications: acoustic source localization and epileptic source localization in electroencephalography. In both cases, we verify that cosparse approach exhibits superior scalability, even allowing for full (time domain) wavefield interpolation in three spatial dimensions. Moreover, in the acoustic setting, the analysis-based optimization benefits from the increased amount of observation data, resulting in a speedup in processing time that is orders of magnitude faster than the synthesis approach. Numerical simulations show that the developed methods in both applications are competitive to state-of-the-art localization algorithms in their corresponding areas. Finally, we present two sparse analysis methods for blind estimation of the speed of sound and acoustic impedance, simultaneously with wavefield interpolation. This is an important step toward practical implementation, where most physical parameters are unknown beforehand. The versatility of the approach is demonstrated on the “hearing behind walls” scenario, in which the traditional localization methods necessarily fail. Additionally, by means of a novel algorithmic framework, we challenge the audio declipping problemregularized by sparsity or cosparsity. Our method is highly competitive against stateof-the-art, and, in the cosparse setting, allows for an efficient (even real-time) implementation.
129

Inégalités de Carleman pour des systèmes paraboliques et applications aux problèmes inverses et à la contrôlabilité : contribution à la diffraction d'ondes acoustiques dans un demi-plan homogène.

Ramoul, Hichem 15 March 2011 (has links)
Dans la première partie, on démontre des inégalités de Carleman pour des systèmes paraboliques. Au chapitre 1, on démontre des inégalités de stabilité pour un système parabolique 2 x 2 en utilisant des inégalités de Carleman avec une seule observation. Il s'agit d'un problème inverse pour l'identification des coefficients et les conditions initiales du système. Le chapitre2 est consacré aux inégalités de Carleman pour des systèmes paraboliques dont les coefficients de diffusion sont de classe C1 par morceaux ou à variations bornées. A la fin, on donne quelques applications à la contrôlabilité à zéro. La seconde partie est consacrée à l'étude d'un problème de diffraction d'ondes acoustiques dans un demi-plan homogène. Il s'agit d'un problème aux limites associé à l'équation de Helmholtz dans le demi-plan supérieur avec une donnée de Neumann non homogène au bord. On apporte des éléments de réponse sur la question d'unicité et d'existence des solutions pour certaines classes de la donnée au bord. / In the first part, we prove Carleman estimates for parabolic systems. In chapter1, we prove stability inequalities for 2 x 2 parabolic system using Carleman estimates with one observation. It is concerns to the identification of the coefficients and initial conditions of the system. The chapter2 is devoted to th Carleman estimates of parabolic systems for which the diffusion coefficients are assumed to be ofclass piecewise C1 or with bounded variations. In the end, we give some applications to the null controllability. The second part is devoted to the study of the scattering problem of acoustics waves in a homogeneous half-plane. It is about a boundary value problem associated to the Helmholtz equation in theupper half-plane with a nonhomogeneous Neumann boundary data. We provide some answers to the question of uniqueness and existence of solutions for some classes of the boundary data.
130

High precision camera calibration / Calibration de caméra à haute précision

Tang, Zhongwei 01 July 2011 (has links)
Cette thèse se concentre sur les aspects de précision de la reconstruction 3D avec un accent particulier sur la correction de distorsion. La cause de l'imprécision dans la stéréoscopie peut être trouvée à toute étape de la chaîne. L'imprécision due à une certaine étape rend inutile la précision acquise dans les étapes précédentes, puis peut se propage, se amplifie ou se mélange avec les erreurs dans les étapes suivantes, conduisant finalement à une reconstruction 3D imprécise. Il semble impossible d'améliorer directement la précision globale d'une chaîne de reconstruction 3D qui conduit à données 3D imprécises. L'approche plus approprié pour obtenir un modèle 3D précis est d'étudier la précision de chaque composant. Une attention maximale est portée à la calibration de l'appareil photo pour trois raisons. Premièrement, il est souvent le premier composant dans la chaîne. Deuxièmement, il est en soi déjà un système compliqué contenant de nombreux paramètres inconnus. Troisièmement, il suffit de calibrer les paramètres intrinsèques d'un appareil photo une fois, en fonction de la configuration de l'appareil photo (et à température constante). Le problème de calibration de l'appareil photo est censé d'avoir été résolu depuis des années. Néanmoins, méthodes et modèles de calibration qui étaient valables pour les exigences de précision autrefois deviennent insatisfaisants pour les nouveaux appareils photo numériques permettant une plus grande précision. Dans nos expériences, nous avons régulièrement observé que les méthodes globales actuelles peuvent laisser une distorsion résiduelle en ordre d'un pixel, ce qui peut conduire à des distorsions dans les scènes reconstruites. Nous proposons deux méthodes dans la thèse pour corriger la distorsion, avec une précision beaucoup plus élevée. Avec un outil d'évaluation objective, nous montrons que la précision de correction finalement réalisable est d'environ 0,02 pixels. Cette valeur représente l'écart moyen d'une ligne droite observée traversant le domaine de l'image à sa ligne de régression parfaitement droite. La haute précision est également nécessaire ou souhaitée pour d'autres tâches de traitement d'images cruciales en 3D, comme l'enregistrement des images. Contrairement au progrès dans l'invariance de détecteurs des point d'intérêt, la précision de matchings n'a pas été étudiée avec soin. Nous analysons la méthode SIFT (Scale-Invariant Feature Transform) et d'évaluer sa précision de matchings. Il montre que par quelques modifications simples dans l'espace d'échelle de SIFT, la précision de matchings peut être améliorée à être d'environ 0,05 pixels sur des tests synthétiques. Un algorithme plus réaliste est également proposé pour augmenter la précision de matchings pour deux images réelles quand la transformation entre elles est localement lisse. Une méthode de débruitage avec une série des images, appelée ''burst denoising'', est proposée pour profiter des matchings précis pour estimer et enlever le bruit en même temps. Cette méthode produit une courbe de bruit précise, qui peut être utilisée pour guider le débruitage par la moyenne simple et la méthode classique. ''burst denoising'' est particulièrement puissant pour restaurer la partie fine texturée non-périodique dans les images, même par rapport aux meilleures méthodes de débruitage de l'état de l'art. / The thesis focuses on precision aspects of 3D reconstruction with a particular emphasis on camera distortion correction. The causes of imprecisions in stereoscopy can be found at any step of the chain. The imprecision caused in a certain step will make useless the precision gained in the previous steps, then be propagated, amplified or mixed with errors in the following steps, finally leading to an imprecise 3D reconstruction. It seems impossible to directly improve the overall precision of a reconstruction chain leading to final imprecise 3D data. The appropriate approach to obtain a precise 3D model is to study the precision of every component. A maximal attention is paid to the camera calibration for three reasons. First, it is often the first component in the chain. Second, it is by itself already a complicated system containing many unknown parameters. Third, the intrinsic parameters of a camera only need to be calibrated once, depending on the camera configuration (and at constant temperature). The camera calibration problem is supposed to have been solved since years. Nevertheless, calibration methods and models that were valid for past precision requirements are becoming unsatisfying for new digital cameras permitting a higher precision. In our experiments, we regularly observed that current global camera methods can leave behind a residual distortion error as big as one pixel, which can lead to distorted reconstructed scenes. We propose two methods in the thesis to correct the distortion with a far higher precision. With an objective evaluation tool, it will be shown that the finally achievable correction precision is about 0.02 pixels. This value measures the average deviation of an observed straight line crossing the image domain from its perfectly straight regression line. High precision is also needed or desired for other image processing tasks crucial in 3D, like image registration. In contrast to the advance in the invariance of feature detectors, the matching precision has not been studied carefully. We analyze the SIFT method (Scale-invariant feature transform) and evaluate its matching precision. It will be shown that by some simple modifications in the SIFT scale space, the matching precision can be improved to be about 0.05 pixels on synthetic tests. A more realistic algorithm is also proposed to increase the registration precision for two real images when it is assumed that their transformation is locally smooth. A multiple-image denoising method, called ''burst denoising'', is proposed to take advantage of precise image registration to estimate and remove the noise at the same time. This method produces an accurate noise curve, which can be used to guide the denoising by the simple averaging and classic block matching method. ''burst denoising'' is particularly powerful to recover fine non-periodic textured part in images, even compared to the best state of the art denoising method.

Page generated in 0.066 seconds