• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 75
  • 13
  • 1
  • Tagged with
  • 183
  • 183
  • 91
  • 76
  • 47
  • 40
  • 39
  • 36
  • 33
  • 32
  • 29
  • 29
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes innovantes en contrôle non destructif des structures: applications à la détection de fissures

Boukari, Yosra 20 January 2012 (has links) (PDF)
L'application des problèmes inverses de diffraction à la détection de fissures via l'utilisation d'ondes acoustiques, électromagnétiques ou élastiques s'élargit dans de nombreux domaines. Des exemples d'application incluent le contrôle non destructif, la prospection géophysique... Cette thèse a pour objectif d'identifier des fissures en utilisant des méthodes d'échantillonnage bien connues. Dans ce travail, nous utilisons la Linear Sampling Method et la méthode de Factorisation pour reconstruire la géométrie de fissures à partir de plusieurs données statiques de champs lointains dans le cas de conditions d'impédance sur les deux bords de la fissure se trouvant dans un domaine homogène. Par ailleurs, une application de la méthode de la Reciprocity Gap Linear Sampling Method est proposée pour la reconstruction de la géométrie de fissures dans un domaine hétérogène avec les mêmes conditions au bord. Dans le but d'élargir l'application de cette dernière méthode, une méthode de complétion de données pour le problème de Cauchy associé à l'équation de Helmholtz a été proposée. La performance des méthodes proposées est montrée à travers de tests numériques pour différentes formes de fissures et pour différentes valeurs de l'impédance.
32

Analyse des modèles particulaires de Feynman-Kac et application à la résolution de problèmes inverses en électromagnétisme

Giraud, François 29 May 2013 (has links) (PDF)
Dans une première partie théorique, nous nous penchons sur une analyse rigoureuse des performances de l'algorithme Sequential Monte Carlo (SMC) conduisant à des résultats de type bornes L^p et inégalités de concentration. Nous abordons notamment le cas particulier des SMC associés à des schémas de température, et analysons sur ce sujet un processus à schéma adaptatif.Dans une seconde partie appliquée, nous illustrons son utilisation par la résolution de problèmes inverses concrets en électromagnétisme. Le plus important d'entre eux consiste à estimer les propriétés radioélectriques de matériaux recouvrant un objet de géométrie connue, et cela à partir de mesures de champs rétrodiffusés. Nous montrons comment l'algorithme SMC, couplé à des calculs analytiques, permet une inversion bayésienne, et fournit des estimées robustes enrichies d'estimations des incertitudes.
33

Modélisations de mécanismes locaux et leurs identifications dans le comportement de matériaux et de structures

Pagano, Stéphane 19 October 2007 (has links) (PDF)
Mes recherches s'articulent actuellement autour de trois thèmes, qui présentent des recouvrements et dont les activités ont été menées en parallèle. Le premier thème intitulé « Approche numérique pour la non convexité et les instabilités en mécanique » est la continuation des travaux entamés durant ma thèse et réalisés essentiellement avec P. Alart (LMGC). Nous avons travaillé sur des problèmes de minimisation de fonctionnelles non-convexes et plus particulièrement sur la détermination de solutions dites instables (minima locaux). Le deuxième thème « Méthodes inverses en mécanique » représente le fruit d'une collaboration avec Giuseppe Geymonat (LMGC) et François Hild du Laboratoire de Mécanique et Technologie de Cachan (LMT Cachan), sur un problème d'identification de paramètres associé à des équations de la mécanique. Pour finir, le thème « Modélisation mathématique et numérique dans les matériaux solides » traduit des investigations plus théoriques, réalisées grâce à l'analyse mathématique, initiées lors de mon post-doctorat et d'un séjour réalisés au sein du Mathematical Institute à Oxford.
34

Quelques contributions aux méthodes d'équations intégrales et à l'étude de problèmes inverses en mécanique des solides

Bonnet, Marc 23 October 1995 (has links) (PDF)
no abstract provided
35

Méthodes itératives pour la reconstruction tomographique régularisée / Iterative Methods in regularized tomographic reconstruction

Paleo, Pierre 13 November 2017 (has links)
Au cours des dernières années, les techniques d'imagerie par tomographie se sont diversifiées pour de nombreuses applications. Cependant, des contraintes expérimentales conduisent souvent à une acquisition de données limitées, par exemple les scans rapides ou l'imagerie médicale pour laquelle la dose de rayonnement est une préoccupation majeure. L'insuffisance de données peut prendre forme d'un faible rapport signal à bruit, peu de vues, ou une gamme angulaire manquante. D'autre part, les artefacts nuisent à la qualité de reconstruction. Dans ces contextes, les techniques standard montrent leurs limitations. Dans ce travail, nous explorons comment les méthodes de reconstruction régularisée peuvent répondre à ces défis. Ces méthodes traitent la reconstruction comme un problème inverse, et la solution est généralement calculée par une procédure d'optimisation. L'implémentation de méthodes de reconstruction régularisée implique à la fois de concevoir une régularisation appropriée, et de choisir le meilleur algorithme d'optimisation pour le problème résultant. Du point de vue de la modélisation, nous considérons trois types de régularisations dans un cadre mathématique unifié, ainsi que leur implémentation efficace : la variation totale, les ondelettes et la reconstruction basée sur un dictionnaire. Du point de vue algorithmique, nous étudions quels algorithmes d'optimisation de l'état de l'art sont les mieux adaptés pour le problème et l'architecture parallèle cible (GPU), et nous proposons un nouvel algorithme d'optimisation avec une vitesse de convergence accrue. Nous montrons ensuite comment les modèles régularisés de reconstruction peuvent être étendus pour prendre en compte les artefacts usuels : les artefacts en anneau et les artefacts de tomographie locale. Nous proposons notamment un nouvel algorithme quasi-exact de reconstruction en tomographie locale. / In the last years, there have been a diversification of the tomography imaging technique for many applications. However, experimental constraints often lead to limited data - for example fast scans, or medical imaging where the radiation dose is a primary concern. The data limitation may come as a low signal to noise ratio, scarce views or a missing angle wedge.On the other hand, artefacts are detrimental to reconstruction quality.In these contexts, the standard techniques show their limitations.In this work, we explore how regularized tomographic reconstruction methods can handle these challenges.These methods treat the problem as an inverse problem, and the solution is generally found by the means of an optimization procedure.Implementing regularized reconstruction methods entails to both designing an appropriate regularization, and choosing the best optimization algorithm for the resulting problem.On the modelling part, we focus on three types of regularizers in an unified mathematical framework, along with their efficient implementation: Total Variation, Wavelets and dictionary-based reconstruction. On the algorithmic part, we study which state-of-the-art convex optimization algorithms are best fitted for the problem and parallel architectures (GPU), and propose a new algorithm for an increased convergence speed.We then show how the standard regularization models can be extended to take the usual artefacts into account, namely rings and local tomography artefacts. Notably, a novel quasi-exact local tomography reconstruction method is proposed.
36

Problèmes inverses pour l’équation de Schrödinger / Inverse problem related to the Schrödinger equation

Mejri, Youssef 20 December 2017 (has links)
Les travaux de recherche présentés dans cette thèse sont consacrés à l’étude de la stabilité dans divers problèmes inverses associés à l’équation de Schrödinger magnétique. Dans la première partie, on s’intéresse à un problème inverse concernant l’équation de Schrödinger autonome posée dans un domaine cylindrique non borné, avec potentiel magnétique périodique. On démontre à l’aide d’une construction de solutions particulières, dites solutions de type "optique géométrique", que le champ magnétique induit par le potentiel périodique est déterminé de façon stable à partir une infinité d’observations latérales de la solution, contenues dans l’opérateur de Dirichlet-Neumann. La deuxième partie de la thèse porte sur le même type de problèmes inverses mais associés à l’équation de Schrödinger magnétique non autonome. Dans un premier temps, on montre l’existence d’une unique solution régulière de cette équation dans un domaine borné ou non. Ensuite, on s’intéresse au problème inverse de la détermination simultanée des potentiels magnétique et électrique dans un domaine borné, à partir d’un nombre fini d’observations latérales de la solution. Enfin, on prouve que dans un domaine cylindrique infini, le potentiel magnétique peut être reconstruit de façon Lipschitz stable à partir d’un nombre fini d’observations de type Neumann. / This thesis, is devoted to the study of inverse problems related to the Schrödinger equation. The first partof the thesis is devoted to study the boundary inverse problem of determining the alignedmagnetic field appearing in the magnetic Schrödinger equation in a periodic quantum cylindricalwaveguide. From the Dirichlet-to-Neumann map of the magnetic Schrödinger equation,we prove a Hölder stability estimate with respect to the Dirichlet-to-Neumann map, by meansof the geometrical optics solutions of the magnetic Schrödinger equation.The second part of this thesis deals with the inverse problem of determining the magnetic field and the electricpotential appearing in the magnetic Schrödinger equation, from the knowledge of a finitenumber of lateral observations of the solution.
37

Cosparse regularization of physics-driven inverse problems / Régularisation co-parcimonieuse de problèmes inverse guidée par la physique

Kitic, Srdan 26 November 2015 (has links)
Les problèmes inverses liés à des processus physiques sont d'une grande importance dans la plupart des domaines liés au traitement du signal, tels que la tomographie, l'acoustique, les communications sans fil, le radar, l'imagerie médicale, pour n'en nommer que quelques uns. Dans le même temps, beaucoup de ces problèmes soulèvent des défis en raison de leur nature mal posée. Par ailleurs, les signaux émanant de phénomènes physiques sont souvent gouvernées par des lois s'exprimant sous la forme d'équations aux dérivées partielles (EDP) linéaires, ou, de manière équivalente, par des équations intégrales et leurs fonctions de Green associées. De plus, ces phénomènes sont habituellement induits par des singularités, apparaissant comme des sources ou des puits d'un champ vectoriel. Dans cette thèse, nous étudions en premier lieu le couplage entre de telles lois physiques et une hypothèse initiale de parcimonie des origines du phénomène physique. Ceci donne naissance à un concept de dualité des régularisations, formulées soit comme un problème d'analyse coparcimonieuse (menant à la représentation en EDP), soit comme une parcimonie à la synthèse équivalente à la précédente (lorsqu'on fait plutôt usage des fonctions de Green). Nous dédions une part significative de notre travail à la comparaison entre les approches de synthèse et d'analyse. Nous défendons l'idée qu'en dépit de leur équivalence formelle, leurs propriétés computationnelles sont très différentes. En effet, en raison de la parcimonie héritée par la version discrétisée de l'EDP (incarnée par l'opérateur d'analyse), l'approche coparcimonieuse passe bien plus favorablement à l'échelle que le problème équivalent régularisé par parcimonie à la synthèse. Nos constatations sont illustrées dans le cadre de deux applications : la localisation de sources acoustiques, et la localisation de sources de crises épileptiques à partir de signaux électro-encéphalographiques. Dans les deux cas, nous vérifions que l'approche coparcimonieuse démontre de meilleures capacités de passage à l'échelle, au point qu'elle permet même une interpolation complète du champ de pression dans le temps et en trois dimensions. De plus, dans le cas des sources acoustiques, l'optimisation fondée sur le modèle d'analyse \emph{bénéficie} d'une augmentation du nombre de données observées, ce qui débouche sur une accélération du temps de traitement, plus rapide que l'approche de synthèse dans des proportions de plusieurs ordres de grandeur. Nos simulations numériques montrent que les méthodes développées pour les deux applications sont compétitives face à des algorithmes de localisation constituant l'état de l'art. Pour finir, nous présentons deux méthodes fondées sur la parcimonie à l'analyse pour l'estimation aveugle de la célérité du son et de l'impédance acoustique, simultanément à l'interpolation du champ sonore. Ceci constitue une étape importante en direction de la mise en œuvre de nos méthodes en en situation réelle. / Inverse problems related to physical processes are of great importance in practically every field related to signal processing, such as tomography, acoustics, wireless communications, medical and radar imaging, to name only a few. At the same time, many of these problems are quite challenging due to their ill-posed nature. On the other hand, signals originating from physical phenomena are often governed by laws expressible through linear Partial Differential Equations (PDE), or equivalently, integral equations and the associated Green’s functions. In addition, these phenomena are usually induced by sparse singularities, appearing as sources or sinks of a vector field. In this thesis we primarily investigate the coupling of such physical laws with a prior assumption on the sparse origin of a physical process. This gives rise to a “dual” regularization concept, formulated either as sparse analysis (cosparse), yielded by a PDE representation, or equivalent sparse synthesis regularization, if the Green’s functions are used instead. We devote a significant part of the thesis to the comparison of these two approaches. We argue that, despite nominal equivalence, their computational properties are very different. Indeed, due to the inherited sparsity of the discretized PDE (embodied in the analysis operator), the analysis approach scales much more favorably than the equivalent problem regularized by the synthesis approach. Our findings are demonstrated on two applications: acoustic source localization and epileptic source localization in electroencephalography. In both cases, we verify that cosparse approach exhibits superior scalability, even allowing for full (time domain) wavefield interpolation in three spatial dimensions. Moreover, in the acoustic setting, the analysis-based optimization benefits from the increased amount of observation data, resulting in a speedup in processing time that is orders of magnitude faster than the synthesis approach. Numerical simulations show that the developed methods in both applications are competitive to state-of-the-art localization algorithms in their corresponding areas. Finally, we present two sparse analysis methods for blind estimation of the speed of sound and acoustic impedance, simultaneously with wavefield interpolation. This is an important step toward practical implementation, where most physical parameters are unknown beforehand. The versatility of the approach is demonstrated on the “hearing behind walls” scenario, in which the traditional localization methods necessarily fail. Additionally, by means of a novel algorithmic framework, we challenge the audio declipping problemregularized by sparsity or cosparsity. Our method is highly competitive against stateof-the-art, and, in the cosparse setting, allows for an efficient (even real-time) implementation.
38

Inégalités de Carleman pour des systèmes paraboliques et applications aux problèmes inverses et à la contrôlabilité : contribution à la diffraction d'ondes acoustiques dans un demi-plan homogène.

Ramoul, Hichem 15 March 2011 (has links)
Dans la première partie, on démontre des inégalités de Carleman pour des systèmes paraboliques. Au chapitre 1, on démontre des inégalités de stabilité pour un système parabolique 2 x 2 en utilisant des inégalités de Carleman avec une seule observation. Il s'agit d'un problème inverse pour l'identification des coefficients et les conditions initiales du système. Le chapitre2 est consacré aux inégalités de Carleman pour des systèmes paraboliques dont les coefficients de diffusion sont de classe C1 par morceaux ou à variations bornées. A la fin, on donne quelques applications à la contrôlabilité à zéro. La seconde partie est consacrée à l'étude d'un problème de diffraction d'ondes acoustiques dans un demi-plan homogène. Il s'agit d'un problème aux limites associé à l'équation de Helmholtz dans le demi-plan supérieur avec une donnée de Neumann non homogène au bord. On apporte des éléments de réponse sur la question d'unicité et d'existence des solutions pour certaines classes de la donnée au bord. / In the first part, we prove Carleman estimates for parabolic systems. In chapter1, we prove stability inequalities for 2 x 2 parabolic system using Carleman estimates with one observation. It is concerns to the identification of the coefficients and initial conditions of the system. The chapter2 is devoted to th Carleman estimates of parabolic systems for which the diffusion coefficients are assumed to be ofclass piecewise C1 or with bounded variations. In the end, we give some applications to the null controllability. The second part is devoted to the study of the scattering problem of acoustics waves in a homogeneous half-plane. It is about a boundary value problem associated to the Helmholtz equation in theupper half-plane with a nonhomogeneous Neumann boundary data. We provide some answers to the question of uniqueness and existence of solutions for some classes of the boundary data.
39

High precision camera calibration / Calibration de caméra à haute précision

Tang, Zhongwei 01 July 2011 (has links)
Cette thèse se concentre sur les aspects de précision de la reconstruction 3D avec un accent particulier sur la correction de distorsion. La cause de l'imprécision dans la stéréoscopie peut être trouvée à toute étape de la chaîne. L'imprécision due à une certaine étape rend inutile la précision acquise dans les étapes précédentes, puis peut se propage, se amplifie ou se mélange avec les erreurs dans les étapes suivantes, conduisant finalement à une reconstruction 3D imprécise. Il semble impossible d'améliorer directement la précision globale d'une chaîne de reconstruction 3D qui conduit à données 3D imprécises. L'approche plus approprié pour obtenir un modèle 3D précis est d'étudier la précision de chaque composant. Une attention maximale est portée à la calibration de l'appareil photo pour trois raisons. Premièrement, il est souvent le premier composant dans la chaîne. Deuxièmement, il est en soi déjà un système compliqué contenant de nombreux paramètres inconnus. Troisièmement, il suffit de calibrer les paramètres intrinsèques d'un appareil photo une fois, en fonction de la configuration de l'appareil photo (et à température constante). Le problème de calibration de l'appareil photo est censé d'avoir été résolu depuis des années. Néanmoins, méthodes et modèles de calibration qui étaient valables pour les exigences de précision autrefois deviennent insatisfaisants pour les nouveaux appareils photo numériques permettant une plus grande précision. Dans nos expériences, nous avons régulièrement observé que les méthodes globales actuelles peuvent laisser une distorsion résiduelle en ordre d'un pixel, ce qui peut conduire à des distorsions dans les scènes reconstruites. Nous proposons deux méthodes dans la thèse pour corriger la distorsion, avec une précision beaucoup plus élevée. Avec un outil d'évaluation objective, nous montrons que la précision de correction finalement réalisable est d'environ 0,02 pixels. Cette valeur représente l'écart moyen d'une ligne droite observée traversant le domaine de l'image à sa ligne de régression parfaitement droite. La haute précision est également nécessaire ou souhaitée pour d'autres tâches de traitement d'images cruciales en 3D, comme l'enregistrement des images. Contrairement au progrès dans l'invariance de détecteurs des point d'intérêt, la précision de matchings n'a pas été étudiée avec soin. Nous analysons la méthode SIFT (Scale-Invariant Feature Transform) et d'évaluer sa précision de matchings. Il montre que par quelques modifications simples dans l'espace d'échelle de SIFT, la précision de matchings peut être améliorée à être d'environ 0,05 pixels sur des tests synthétiques. Un algorithme plus réaliste est également proposé pour augmenter la précision de matchings pour deux images réelles quand la transformation entre elles est localement lisse. Une méthode de débruitage avec une série des images, appelée ''burst denoising'', est proposée pour profiter des matchings précis pour estimer et enlever le bruit en même temps. Cette méthode produit une courbe de bruit précise, qui peut être utilisée pour guider le débruitage par la moyenne simple et la méthode classique. ''burst denoising'' est particulièrement puissant pour restaurer la partie fine texturée non-périodique dans les images, même par rapport aux meilleures méthodes de débruitage de l'état de l'art. / The thesis focuses on precision aspects of 3D reconstruction with a particular emphasis on camera distortion correction. The causes of imprecisions in stereoscopy can be found at any step of the chain. The imprecision caused in a certain step will make useless the precision gained in the previous steps, then be propagated, amplified or mixed with errors in the following steps, finally leading to an imprecise 3D reconstruction. It seems impossible to directly improve the overall precision of a reconstruction chain leading to final imprecise 3D data. The appropriate approach to obtain a precise 3D model is to study the precision of every component. A maximal attention is paid to the camera calibration for three reasons. First, it is often the first component in the chain. Second, it is by itself already a complicated system containing many unknown parameters. Third, the intrinsic parameters of a camera only need to be calibrated once, depending on the camera configuration (and at constant temperature). The camera calibration problem is supposed to have been solved since years. Nevertheless, calibration methods and models that were valid for past precision requirements are becoming unsatisfying for new digital cameras permitting a higher precision. In our experiments, we regularly observed that current global camera methods can leave behind a residual distortion error as big as one pixel, which can lead to distorted reconstructed scenes. We propose two methods in the thesis to correct the distortion with a far higher precision. With an objective evaluation tool, it will be shown that the finally achievable correction precision is about 0.02 pixels. This value measures the average deviation of an observed straight line crossing the image domain from its perfectly straight regression line. High precision is also needed or desired for other image processing tasks crucial in 3D, like image registration. In contrast to the advance in the invariance of feature detectors, the matching precision has not been studied carefully. We analyze the SIFT method (Scale-invariant feature transform) and evaluate its matching precision. It will be shown that by some simple modifications in the SIFT scale space, the matching precision can be improved to be about 0.05 pixels on synthetic tests. A more realistic algorithm is also proposed to increase the registration precision for two real images when it is assumed that their transformation is locally smooth. A multiple-image denoising method, called ''burst denoising'', is proposed to take advantage of precise image registration to estimate and remove the noise at the same time. This method produces an accurate noise curve, which can be used to guide the denoising by the simple averaging and classic block matching method. ''burst denoising'' is particularly powerful to recover fine non-periodic textured part in images, even compared to the best state of the art denoising method.
40

Sur la rigidité des variétés riemanniennes / On the rigidity of Riemannian manifolds

Lefeuvre, Thibault 19 December 2019 (has links)
Une variété riemannienne est dite rigide lorsque la longueur des géodésiques périodiques (cas des variétés fermées) ou des géodésiques diffusées (cas des variétés ouvertes) permet de reconstruire globalement la géométrie de la variété. Cette notion trouve naturellement son origine dans des dispositifs d’imagerie numérique tels que la tomographie par rayons X. Grâce une approche résolument analytique initiée par Guillarmou et fondée sur de l’analyse microlocale (plus particulièrement sur certaines techniques récentes dues à Faure-Sjostrand et Dyatlov-Zworski permettant une étude analytique fine des flots Anosov), nous montrons que le spectre marqué des longueurs, c’est-à-dire la donnée des longueurs des géodésiques périodiques marquées par l’homotopie, d’une variété fermée Anosov ou Anosov à pointes hyperboliques détermine localement la métrique de la variété. Dans le cas d’une variété ouverte avec ensemble capté hyperbolique, nous montrons que la distance marquée au bord, c’est-à-dire la donnée de la longueur des géodésiques diffusées marquées par l’homotopie, détermine localement la métrique. Enfin, dans le cas d’une surface asymptotiquement hyperbolique, nous montrons qu’une notion de distance renormalisée entre paire de points au bord à l’infini permet de reconstruire globalement la géométrie de la surface. / A Riemannian manifold is said to be rigid if the length of periodic geodesics (in the case of a closed manifold) or scattered geodesics (in the case of an open manifold) allows to recover the full geometry of the manifold. This notion naturally arises in imaging devices such as X-ray tomography. Thanks to a analytic framework introduced by Guillarmou and based on microlocal analysis (and more precisely on the analytic study of hyperbolic flows of Faure-Sjostrand and Dyatlov-Zworski), we show that the marked length spectrum, that is the lengths of the periodic geodesics marked by homotopy, of a closed Anosov manifold or of an Anosov manifold with hyperbolic cusps locally determines its metric. In the case of an open manifold with hyperbolic trapped set, we show that the length of the scattered geodesics marked by homotopy locally determines the metric. Eventually, in the case of an asymptotically hyperbolic surface, we show that a suitable notion of renormalized distance between pair of points on the boundary at infinity allows to globally reconstruct the geometry of the surface.

Page generated in 0.0742 seconds