• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 76
  • 11
  • 2
  • Tagged with
  • 210
  • 90
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Sélection de variables pour la classification non supervisée en grande dimension

Meynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.
102

Correction de l'atténuation et de la réponse géométrique d'un détecteur en tomographie d'émission sur colis de déchets nucléaires

Thierry, Raphaël 29 October 1999 (has links) (PDF)
La tomographie d'émission multiphotonique est une technique de contrôle non destructif appliquée au contrôle des colis de déchets radioactifs. Les rayonnements gammas émis sont détectés sur la gamme [50 keV, 2 MeV] par un germanium hyper pur, de haute résolution en énergie, ce qui permet d'établir une carte détaillée des radioéléments contenus dans le colis. A partir des différents points de mesures situés dans un plan transaxial au colis, un algorithme de reconstruction permet d'estimer la distribution de l'activité. Une modélisation algébrique du processus a été développée afin de pouvoir corriger des phénomènes perturbateurs, en particulier l'atténuation et la réponse géométrique du détecteur. L'atténuation à travers les matériaux constituant le colis est le phénomène prépondérant : elle permet une quantification précise de l'activité. Sa prise en compte est réalisée grâce à une carte d'atténuation obtenue par un tomographe de transmission. La réponse géométrique de détection, opérant un flou sur le faisceau de détection, est modélisée analytiquement. La bonne modélisation de ces phénomènes est primordiale : elle conditionne, dans une grande partie, la qualité de l'image et sa quantification. La reconstruction des images, nécessitant la résolution de systèmes matriciels creux, est réalisée par des algorithmes itératifs. Du fait du caractère "mal-posé" de la reconstruction tomographique, il est nécessaire d'utiliser une régularisation : la stabilisation des méthodes s'opère par l'introduction d'information a priori sur la solution. Le critère à minimiser choisi est celui du Maximum A Posteriori. Sa résolution est envisagée par un algorithme de régularisation semi-quadratique : il permet la préservation les discontinuités naturelles, et évite ainsi le surlissage global de l'image. Elle est évaluée sur des fantômes réels et des colis de déchets. Enfin l'échantillonnage efficace des mesures est abordé.
103

Modélisation objective de la localisation des déformations et de la fissuration des structures en béton soumises à des chargements statiques ou dynamiques / Objective modelisation of localized deformations and fracture in reinforced concrete structures

Giry, Cedric 10 November 2011 (has links)
Dans une problématique d'analyse de la durabilité des structures en béton armé, la quantification de la localisation des déformations et des propriétés des fissures sont deux points clés. Ce travail présente une méthode permettant, dans le cadre de la mécanique des milieux continus, d'améliorer la description de l'évolution de la localisation des déformations. En se basant sur une approche continue du problème, l'évolution des nonlinéarités dans le béton est décrite au travers d'un modèle d'endommagement régularisé. Pour améliorer la description de la localisation des déformations, une modification de la méthode de régularisation nonlocale intégrale sur les variables internes est proposée. L'influence de l'état de contrainte sur les interactions nonlocales est introduite dans la régularisation, afin de prendre en compte la dégradation de la structure ainsi que l'influence des conditions aux limites sur les interactions nonlocales. Cette méthode, implantée dans le code aux éléments finis Cast3M, est validée sur différents cas tests analysant l'évolution des nonlinéarités de l'enclenchement de l'endommagement jusqu'à la rupture et permet notamment de résoudre des pathologies identifiées pour la méthode nonlocale originale. La comparaison avec des résultats expérimentaux montre également la capacité du modèle à décrire l'évolution de la fissuration dans une structure. Le modèle développé est ensuite utilisé pour analyser le comportement de structures en béton armé et sert de base pour introduire une description de la fissuration dans une modélisation simplifiée de type poutre multifibre. A partir de calcul 3D sur des éléments en béton armé utilisant le modèle développé, une loi uniaxiale est identifiée pour déterminer la fissuration dans une fibre en fonction de l'énergie dissipée par le modèle d'endommagement. Une comparaison avec des résultats expérimentaux est effectuée et montre la capacité de cette approche simplifiée à estimer la fissuration. / For the durability analysis of reinforced concrete structures, the modelling of strain localization and the estimation of cracking properties are hot topics. This work introduces a method allowing, in the framework of continuous mechanics, to improve the description of the evolution of strain localization. Based on a continuous description of the problem, the evolution of nonlinearities in concrete is described with a regularized damage model. In order to improve the description of strain localization, a modification of the nonlocal integral regularization method is proposed. The influence of the stress state on the nonlocal interactions is introduced in the regularization method, in order to take into account the degradation of the structure (decrease of the bearing capacities) as well as the influence of free boundary conditions. This method, implemented in the finite element code Cast3M, is validated against several cases of study, by analyzing the evolution of nonlinearities from damage initiation up to failure. It allows solving several pathologies pointed out for the original nonlocal method. The comparison with experimental results shows also the capacity of the proposed model to describe the evolution of cracking in a structure. Then, the model developed is used to analyse the behaviour of reinforced concrete structures and to develop a method to quantify cracking in a multifiber beam element modelling. From 3D calculation on reinforced concrete element with the new nonlocal model developed, a uniaxial law is identified in order to estimate cracking as a function of the energy dissipated by the damage model. A comparison with experimental data is performed and shows the potentiality of this simplified approach to estimate cracking.
104

Reconstruction de sollicitations dynamiques par méthodes inverses / Identification of a dynamic sollicitation by an inverse approach

Tran, Duc Toan 29 August 2014 (has links)
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée / In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
105

Le schéma de régularisation de Taylor-Lagrange, présentation et applications / The Taylor-Lagrange regularization scheme, introduction and applications

Mutet, Bruno 27 January 2011 (has links)
Le schéma de régularisation de Taylor-Lagrange (TLRS) est basé sur la définition des champs en tant que distributions à valeurs d'opérateurs (OPVD). L'expression de ces OPVD implique des fonctions test qui, grâce à leurs propriétés (propriétés d'échelles, super-régularité), permettent d'étendre des distributions singulières à tout l'espace. Ce type de régularisation, que l'on peut qualifier de coupure ultra-douce, est efficace quelque soit le degré de divergence originel et produit des amplitudes finies dépendant d'une échelle intrinsèque sans dimensions. Enfin, ce schéma préserve les symétries du groupe de Poincaré et l'invariance de jauge. Après avoir présenté le formalisme TLRS, celui-ci est appliqué au calcul des corrections radiatives en QED ainsi qu'à celles à la masse du boson de Higgs dans le cadre du modèle standard de la physique des particules. Dans une dernière partie, il est appliqué au modèle de Yukawa dans le cadre de la dynamique sur le front de lumière. Les corrections radiatives et un calcul non-perturbatif d'états liés sont effectués. Ces exemples permettent de vérifier, d'une part, l'applicabilité de ce schéma dans différents cas, et d'autre part, de tester son respect des propriétés de symétrie des théories. / The Taylor-Lagrange regularization scheme (TLRS) is based on the definition of fields as operator valued distributions (OPVD). The expression of these OPVDs implies test functions which, thanks to their properties (scaling properties, super-regularity), allow to extend singular distributions to the whole space. This type of regularization, which could be qualified as an ultra-soft cut-off, is efficient for any order of divergences and produces finite amplitudes depending on an intrinsic dimensionless scale. Finally, this scheme respects the Poincaré group symmetries as well as gauge invariance. After an introduction to the TLRS, it is applied to the calculation of radiative corrections to QED and to the mass of the Higgs boson within the standard model of particle physics. In a last section, it is applied to the Yukawa model using the framework of light front dynamics. Radiative corrections and non-perturbative bound state are calculated. This examples allow to verify, on one hand, the applicability of the TLRS, and on the other hand to test its respect of the symmetry properties of the theories.
106

Modélisation directe et inverse de la dispersion atmosphérique en milieux complexes

Ben Salem, Nabil 17 September 2014 (has links)
La modélisation inverse de la dispersion atmosphérique consiste à reconstruire les caractéristiques d’une source (quantité de polluants rejetée, position) à partir de mesures de concentration dans l’air, en utilisant un modèle direct de dispersion et un algorithme d’inversion. Nous avons utilisé dans cette étude deux modèles directs de dispersion atmosphérique SIRANE (Soulhac, 2000; Soulhac et al., 2011) et SIRANERISK (Cierco et Soulhac, 2009a; Lamaison et al., 2011a, 2011b). Il s’agit de deux modèles opérationnels de « réseau des rues », basés sur le calcul du bilan de masse à différents niveaux du réseau. Leur concept permet de décrire correctement les différents phénomènes physiques de dispersion et de transport de la pollution atmosphérique dans des réseaux urbains complexes. L’étude de validation de ces deux modèles directs de dispersion a été effectuée après avoir évalué la fiabilité des paramétrages adoptés pour simuler les échanges verticaux entre la canopée et l'atmosphère, les transferts aux intersections de rues et la canalisation de l’écoulement à l’intérieur du réseau de rues. Pour cela, nous avons utilisé des mesures en soufflerie effectuées dans plusieurs configurations académiques. Nous avons développé au cours de cette thèse un système de modélisation inverse de dispersion atmosphérique (nommé ReWind) qui consiste à déterminer les caractéristiques d’une source de polluant (débit, position) à partir des concentrations mesurées, en résolvant numériquement le système matriciel linéaire qui relie le vecteur des débits au vecteur des concentrations. La fiabilité des résultats et l’optimisation des temps de calcul d’inversion sont assurées par le couplage de plusieurs méthodes mathématiques de résolution et d’optimisation, bien adaptées pour traiter le cas des problèmes mal posés. L’étude de sensibilité de cet algorithme d’inversion à certains paramètres d’entrée (comme les conditions météorologiques, les positions des récepteurs,…) a été effectuée en utilisant des observations synthétiques (fictives) fournies par le modèle direct de dispersion atmosphérique. La spécificité des travaux entrepris dans le cadre de ce travail a consisté à appliquer ReWind dans des configurations complexes de quartier urbain, et à utiliser toute la variabilité turbulente des mesures expérimentales obtenues en soufflerie pour qualifier ses performances à reconstruire les paramètres sources dans des conditions représentatives de situations de crise en milieu urbain ou industriel. L’application de l’approche inverse en utilisant des signaux instantanés de concentration mesurés en soufflerie plutôt que des valeurs moyennes, a montré que le modèle ReWind fournit des résultats d’inversion qui sont globalement satisfaisants et particulièrement encourageants en termes de reproduction de la quantité de masse totale de polluant rejetée dans l’atmosphère. Cependant, l’algorithme présente quelques difficultés pour estimer à la fois le débit et la position de la source dans certains cas. En effet, les résultats de l’inversion sont assez influencés par le critère de recherche (d’optimisation), le nombre de récepteurs impactés par le panache, la qualité des observations et la fiabilité du modèle direct de dispersion atmosphérique. / The aim of this study is to develop an inverse atmospheric dispersion model for crisis management in urban areas and industrial sites. The inverse modes allows for the reconstruction of the characteristics of a pollutant source (emission rate, position) from concentration measurements, by combining a direct dispersion model and an inversion algorithm, and assuming as known both site topography and meteorological conditions. The direct models used in these study, named SIRANE and SIRANERISK, are both operational "street network" models. These are based on the decomposition of the urban atmosphere into two sub-domains: the urban boundary layer and the urban canopy, represented as a series of interconnected boxes. Parametric laws govern the mass exchanges between the boxes under the assumption that the pollutant dispersion within the canopy can be fully simulated by modelling three main bulk transfer phenomena: channelling along street axes, transfers at street intersections and vertical exchange between a street canyon and the overlying atmosphere. The first part of this study is devoted to a detailed validation of these direct models in order to test the parameterisations implemented in them. This is achieved by comparing their outputs with wind tunnel experiments of the dispersion of steady and unsteady pollutant releases in idealised urban geometries. In the second part we use these models and experiments to test the performances of an inversion algorithm, named REWind. The specificity of this work is twofold. The first concerns the application of the inversion algorithm - using as input data instantaneous concentration signals registered at fixed receptors and not only time-averaged or ensemble averaged concentrations. - in urban like geometries, using an operational urban dispersion model as direct model. The application of the inverse approach by using instantaneous concentration signals rather than the averaged concentrations showed that the ReWind model generally provides reliable estimates of the total pollutant mass discharged at the source. However, the algorithm has some difficulties in estimating both emission rate and position of the source. We also show that the performances of the inversion algorithm are significantly influenced by the cost function used to the optimization, the number of receptors and the parameterizations adopted in the direct atmospheric dispersion model.
107

Méthodes pour l'inférence en grande dimension avec des données corrélées : application à des données génomiques / Methods for staistical inference on correlated data : application to genomic data

Leonardis, Eleonora De 26 October 2015 (has links)
La disponibilité de quantités énormes de données a changé le rôle de la physique par rapport aux autres disciplines. Dans cette thèse, je vais explorer les innovations introduites dans la biologie moléculaire grâce à des approches de physique statistique. Au cours des 20 dernières années, la taille des bases de données sur le génome a augmenté de façon exponentielle : l'exploitation des données brutes, dans le champ d'application de l'extraction d'informations, est donc devenu un sujet majeur dans la physique statistique. Après le succès dans la prédiction de la structure des protéines, des résultats étonnamment bons ont été finalement obtenus aussi pour l'ARN. Cependant, des études récentes ont révélé que, même si les bases de données sont de plus en plus grandes, l'inférence est souvent effectuée dans le régime de sous-échantillonnage et de nouveaux systèmes informatiques sont nécessaires afin de surmonter cette limitation intrinsèque des données réelles. Cette thèse va discuter des méthodes d'inférence et leur application à des prédictions de la structure de l'ARN. Nous allons comprendre certaines approches heuristiques qui ont été appliquées avec succès dans les dernières années, même si théoriquement mal comprises. La dernière partie du travail se concentrera sur le développement d'un outil pour l'inférence de modèles génératifs, en espérant qu'il ouvrira la voie à de nouvelles applications. / The availability of huge amounts of data has changed the role of physics with respect to other disciplines. Within this dissertation I will explore the innovations introduced in molecular biology thanks to statistical physics approaches. In the last 20 years the size of genome databases has exponentially increased, therefore the exploitation of raw data, in the scope of extracting information, has become a major topic in statistical physics. After the success in protein structure prediction, surprising results have been finally achieved also in the related field of RNA structure characterisation. However, recent studies have revealed that, even if databases are growing, inference is often performed in the under sampling regime and new computational schemes are needed in order to overcome this intrinsic limitation of real data. This dissertation will discuss inference methods and their application to RNA structure prediction. We will discuss some heuristic approaches that have been successfully applied in the past years, even if poorly theoretically understood. The last part of the work will focus on the development of a tool for the inference of generative models, hoping it will pave the way towards novel applications.
108

Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variables

Mourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
109

Méthodes primales-duales régularisées pour l'optimisation non linéaire avec contraintes / Regularized primal-dual methods for nonlinearly constrained optimization

Omheni, Riadh 14 November 2014 (has links)
Cette thèse s’inscrit dans le cadre de la conception, l’analyse et la mise en œuvre d’algorithmes efficaces et fiables pour la résolution de problèmes d’optimisation non linéaire avec contraintes. Nous présentons trois nouveaux algorithmes fortement primaux-duaux pour résoudre ces problèmes. La première caractéristique de ces algorithmes est que le contrôle des itérés s’effectue dans l’espace primal-dual tout au long du processus de la minimisation, d’où l’appellation “fortement primaux-duaux”. En particulier, la globalisation est effectuée par une méthode de recherche linéaire qui utilise une fonction de mérite primale-duale. La deuxième caractéristique est l’introduction d’une régularisation naturelle du système linéaire qui est résolu à chaque itération pour calculer une direction de descente. Ceci permet à nos algorithmes de bien se comporter pour résoudre les problèmes dégénérés pour lesquels la jacobienne des contraintes n’est pas de plein rang. La troisième caractéristique est que le paramètre de pénalisation est autorisé à augmenter au cours des itérations internes, alors qu’il est généralement maintenu constant. Cela permet de réduire le nombre d’itérations internes. Une étude théorique détaillée incluant l’analyse de convergence globale des itérations internes et externes, ainsi qu’une analyse asymptotique a été présentée pour chaque algorithme. En particulier, nous montrons qu’ils jouissent d’un taux de convergence rapide, superlinéaire ou quadratique. Ces algorithmes sont implémentés dans un nouveau solveur d’optimisation non linéaire qui est appelé SPDOPT. Les bonnes performances de ce solveur ont été montrées en effectuant des comparaisons avec les codes de références IPOPT, ALGENCAN et LANCELOT sur une large collection de problèmes. / This thesis focuses on the design, analysis, and implementation of efficient and reliable algorithms for solving nonlinearly constrained optimization problems. We present three new strongly primal-dual algorithms to solve such problems. The first feature of these algorithms is that the control of the iterates is done in both primal and dual spaces during the whole minimization process, hence the name “strongly primal-dual”. In particular, the globalization is performed by applying a backtracking line search algorithm based on a primal-dual merit function. The second feature is the introduction of a natural regularization of the linear system solved at each iteration to compute a descent direction. This allows our algorithms to perform well when solving degenerate problems for which the Jacobian of constraints is rank deficient. The third feature is that the penalty parameter is allowed to increase along the inner iterations, while it is usually kept constant. This allows to reduce the number of inner iterations. A detailed theoretical study including the global convergence analysis of both inner and outer iterations, as well as an asymptotic convergence analysis is presented for each algorithm. In particular, we prove that these methods have a high rate of convergence : superlinear or quadratic. These algorithms have been implemented in a new solver for nonlinear optimization which is called SPDOPT. The good practical performances of this solver have been demonstrated by comparing it to the reference codes IPOPT, ALGENCAN and LANCELOT on a large collection of test problems.
110

2D quantum Gravity in the Kähler formalism / Gravité quantique bidimensionnelle dans le formalisme de Kähler

Leduc, Lætitia 21 March 2016 (has links)
Le but de cette thèse est d'étudier lagravité quantique bidimensionnelle. Nousnous intéressons plus particulièrement auxapproches dans le continu. Ces dernièresreposent principalement sur l'action deLiouville qui décrit le couplage entre théorieconforme et gravité. Si cette action, bienconnue, est très bien comprise, la mesure del'intégrale fonctionnelle sur l'espace desmétriques pose plus de problèmes. Toutefois,sous l'hypothèse simplificatrice d'une mesurede champ libre, la dépendance en l'aire de lafonction de partition de la gravité quantiqueen présence de matière conforme a pu êtreétablie. Malgré l'hypothèse assez forte sur lamesure d'intégration, cette formule (diteKPZ), a été confirmée par des calculs issusde méthodes discrètes, et ce dans plusieurscas particuliers. Grâce à une nouvelle méthode derégularisation spectrale en espace courbe,cette mesure d'intégration a récemment puêtre proprement définie. Dans cette thèse,un calcul perturbatif de la fonction departition à aire fixée est mené, jusqu'à troisboucles, en considérant l'action de Liouvilleet des surfaces de Kähler de genrequelconque (qui coïncident avec l'ensembledes surfaces à deux dimensions). Desdivergences apparaissant dans les calculs, ilest nécessaire de renormaliser les actions.Cette renormalisation peut être interprétéecomme une renormalisation de la mesured'intégration. Nos résultats à deux bouclessont finis, indépendants de la régularisationet compatibles avec le résultat KPZ, maisdépendent d'un paramètre libre. L'étude àtrois boucles suggère que la théorie resterenormalisable aux ordres supérieurs maisdépend de nouveaux paramètres à chaqueordre. Ces résultats ont été généralisé dansle cas du tore au couplage à de la matièrenon-conforme. / Nowadays, two-dimensional quantumgravity can be studied in two differentapproaches, one involving discrete theories(triangulation, matrix model...), the othercontinuous ones, mainly based on the socalled Liouville action which universallydescribes the coupling of any conformal fieldtheory to gravity. While the Liouville action isrelatively well understood, the appropriatefunctional integral measure is however rathercomplicated. Nevertheless, a formula for thearea dependence of the quantum gravitypartition function in the presence of conformalmatter has been obtained, under thesimplifying assumption of a free-fieldmeasure. Notwithstanding its non-rigorousderivation, this formula, often referred to asthe KPZ formula, has since been verified inmany instances and has scored manysuccesses. Recent developments of efficient multiloopregularization methods on curved spacetimesopened the way for a precise and welldefinedperturbative computation of the fixedareapartition function in the Kählerformalism. In this work, a first-principlescomputation of the fixed-area partitionfunction in the Liouville theory is performed,up to three loops. Among other things, therole of the non-trivial quantum gravityintegration measure is highlighted.Renormalization is required and may beinterpreted as a renormalization of theintegration measure. This leads to a finite andregularization-independent result at two loops,that is more general than the KPZ result,although compatible. Finiteness andregularization-independence seem alsopossible at three loops. These results aregeneralized to the coupling to non-conformalmatter on the torus.

Page generated in 0.0862 seconds