• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • 1
  • Tagged with
  • 9
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Assimilation de données et analyse de sensibilité. Une application à la circulation océanique

Ngodock, Hans Emmanuel 25 March 1996 (has links) (PDF)
Le travail mené dans cette thèse porte sur l'étude "à posteriori" de l'assimilation variationnelle de données. Il s'agit d'une démarche de faisabilité pour la mise au point des outils permettant de faire une analyse diagnostique (qualitative et quantitative) du processus d'assimilation variationnelle, notamment en ce qui concerne l'influence du bruit des observations sur le processus d'assimilation ainsi que sa propagation sur les champs reconstitués (nous sommes alors amenés à faire une étude de sensibilité), et l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation. L'application usuelle des équations adjointes pour l'analyse de sensibilité est revisée, car dans le contexte de l'assimilation variationnelle, nous avons montré par un exemple simple qu'il faut s'y prendre différemment. Nous proposons alors une méthode pour mener correctement cette analyse de sensibilité. Cette méthode est basée sur l'utilisation des équations adjointes au second ordre, obtenues en prenant l'adjoint du système d'optimalité. La sensibilité en est déduite par inversion du Hessien de la fonction coût via la minimisation d'une fonctionnelle quadratique. L'application est faite sur un modèle de circulation générale océanique de type quasi-géostrophique, et nous faisons aussi l'étude de l'existence et l'unicité de la solution de l'équation adjointe au second ordre du modèle considéré, pour justifier l'utilisation du Hessien et l'applicabilité de notre méthode. Nous étudions aussi l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation au travers du Hessien (à l'optimum) dont les éléments propres varient lorsqu'on fait varier la configuration. Enfin, nous étudions la prédicibilité du système d'optimalité.
2

Décomposition d'image par modèles variationnels : débruitage et extraction de texture

Piffet, Loïc 23 November 2010 (has links) (PDF)
Cette thèse est consacrée dans un premier temps à l'élaboration d'un modèle variationnel dedébruitage d'ordre deux, faisant intervenir l'espace BV 2 des fonctions à hessien borné. Nous nous inspirons ici directement du célèbre modèle de Rudin, Osher et Fatemi (ROF), remplaçant la minimisation de la variation totale de la fonction par la minimisation de la variation totale seconde, c'est à dire la variation totale de ses dérivées. Le but est ici d'obtenir un modèle aussi performant que le modèle ROF, permettant de plus de résoudre le problème de l'effet staircasing que celui-ci engendre. Le modèle que nous étudions ici semble efficace, entraînant toutefois l'apparition d'un léger effet de flou. C'est afin de réduire cet effet que nous introduisons finalement un modèle mixte, permettant d'obtenir des solutions à la fois non constantes par morceaux et sans effet de flou au niveau des détails. Dans une seconde partie, nous nous intéressons au problème d'extraction de texture. Un modèle reconnu comme étant l'un des plus performants est le modèle T V -L1, qui consiste simplement à remplacer dans le modèle ROF la norme L2 du terme d'attache aux données par la norme L1. Nous proposons ici une méthode originale permettant de résoudre ce problème utilisant des méthodes de Lagrangien augmenté. Pour les mêmes raisons que dans le cas du débruitage, nous introduisons également le modèle T V 2-L1, consistant encore une fois à remplacer la variation totale par la variation totale seconde. Un modèle d'extraction de texture mixte est enfin très brièvement introduit. Ce manuscrit est ponctué d'un vaste chapitre dédié aux tests numériques.
3

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique

Castellanos Lopez, Clara 18 April 2014 (has links) (PDF)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension.
4

Etude théorique des mouvements internes de grande amplitude de la décaalanine et du fragment C-terminal de la protéine ribosomale L7/L12

Sanejouand, Yves-Henri 20 June 1990 (has links) (PDF)
La plasticité des protéines joue un rôle majeur dans l'expression de leur fonction. Or, les déplacements amples de groupes d'atomes à l'intérieur des protéines sont souvent difficiles à étudier expérimentalement. Par exemple, on ne sait dire ce qui distingue entre eux les sous-états conformationels mis en évidence par Frauenfelder. Pour préciser l'interprétation de ce type de donnée expérimentale, les méthodes de dynamique moléculaire seraient idéales si le calcul de trajectoires d'environ 100 nsec était possible. La méthode de dynamique moléculaire confinée que nous avons développée repose sur la description que donne la théorie des modes normaux des mouvements amples et lents d'une protéine. Elle permet de calculer des trajectoires beaucoup plus longues que d'ordinaire. Cependant, un comportement anharmonique méconnu perturbe le déroulement des trajectoires calculées ainsi, et ce même dans le cas d'un polypeptide ne subissant aucun changement de conformation (la décaalanine). Pour préciser les voies de développement ultérieur de notre méthode, la dernière partie de cette thèse est consacrée à l'étude d'un mouvement ample et lent d'une petite protéine, le fragment C-terminal de la protéine ribosomale L7/L12.
5

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique / Speed up and regularization techniques for seismic full waveform inversion

Castellanos Lopez, Clara 18 April 2014 (has links)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension. / Currently, the main limitation to perform 3D elastic full waveform inversion on a production level is the computational cost it represents. With this in mind, we provide two contributions. First, we develop a self adjoint formulation of the isotropic first order velocity-stress elastic equations that allow to implement only one forward modeling operator in the gradient computation. Second, we combine Newton and quasi-Newton optimization methods with source encoding techniques to see to what extent the computational cost could be further reduced. Finally, the optimization process associated to FWI is ill posed and requires regularization constraints. I show that the total variation of the model as a regularization term provides and adequate description of earth models, preserving the discontinuous character of the lithological layers. To improve the quality of the images, we propose a local total variation denoising algorithm based on the incorporation of the information provided by a migrated image.
6

Décomposition d’image par modèles variationnels : débruitage et extraction de texture / Variational models for image decomposition : denoising and texture extraction

Piffet, Loïc 23 November 2010 (has links)
Cette thèse est consacrée dans un premier temps à l’élaboration d’un modèle variationnel dedébruitage d’ordre deux, faisant intervenir l’espace BV 2 des fonctions à hessien borné. Nous nous inspirons ici directement du célèbre modèle de Rudin, Osher et Fatemi (ROF), remplaçant la minimisation de la variation totale de la fonction par la minimisation de la variation totale seconde, c’est à dire la variation totale de ses dérivées. Le but est ici d’obtenir un modèle aussi performant que le modèle ROF, permettant de plus de résoudre le problème de l’effet staircasing que celui-ci engendre. Le modèle que nous étudions ici semble efficace, entraînant toutefois l’apparition d’un léger effet de flou. C’est afin de réduire cet effet que nous introduisons finalement un modèle mixte, permettant d’obtenir des solutions à la fois non constantes par morceaux et sans effet de flou au niveau des détails. Dans une seconde partie, nous nous intéressons au problème d’extraction de texture. Un modèle reconnu comme étant l’un des plus performants est le modèle T V -L1, qui consiste simplement à remplacer dans le modèle ROF la norme L2 du terme d’attache aux données par la norme L1. Nous proposons ici une méthode originale permettant de résoudre ce problème utilisant des méthodes de Lagrangien augmenté. Pour les mêmes raisons que dans le cas du débruitage, nous introduisons également le modèle T V 2-L1, consistant encore une fois à remplacer la variation totale par la variation totale seconde. Un modèle d’extraction de texture mixte est enfin très brièvement introduit. Ce manuscrit est ponctué d’un vaste chapitre dédié aux tests numériques. / This thesis is devoted in a first part to the elaboration of a second order variational modelfor image denoising, using the BV 2 space of bounded hessian functions. We here take a leaf out of the well known Rudin, Osher and Fatemi (ROF) model, where we replace the minimization of the total variation of the function with the minimization of the second order total variation of the function, that is to say the total variation of its partial derivatives. The goal is to get a competitive model with no staircasing effect that generates the ROF model anymore. The model we study seems to be efficient, but generates a blurry effect. In order to deal with it, we introduce a mixed model that permits to get solutions with no staircasing and without blurry effect on details. In a second part, we take an interset to the texture extraction problem. A model known as one of the most efficient is the T V -L1 model. It just consits in replacing the L2 norm of the fitting data term with the L1 norm.We propose here an original way to solve this problem by the use of augmented Lagrangian methods. For the same reason than for the denoising case, we also take an interest to the T V 2-L1 model, replacing again the total variation of the function by the second order total variation. A mixed model for texture extraction is finally briefly introduced. This manuscript ends with a huge chapter of numerical tests.
7

Revisiting optimization algorithms for maximum likelihood estimation

Mai, Anh Tien 12 1900 (has links)
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés. / Maximum likelihood is one of the most popular techniques to estimate the parameters of some given distributions. Under slight conditions, the produced estimators are consistent and asymptotically efficient. Maximum likelihood problems can be handled as non-linear programming problems, possibly non convex, that can be solved for instance using line-search methods and trust-region algorithms. Moreover, under some conditions, it is possible to exploit the structures of such problems in order to speedup convergence. In this work, we consider various non-linear programming techniques, either standard or recently developed, within the maximum likelihood estimation perspective. We also propose new algorithms to solve this estimation problem, capitalizing on Hessian approximation techniques and developing new methods to compute steps, in particular in the context of line-search approaches. More specifically, we investigate methods that allow us switching between Hessian approximations and adapting the step length along the search direction. We finally assess the numerical efficiency of the proposed methods for the estimation of discrete choice models, more precisely mixed logit models.
8

Revisiting optimization algorithms for maximum likelihood estimation

Mai, Anh Tien 12 1900 (has links)
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés. / Maximum likelihood is one of the most popular techniques to estimate the parameters of some given distributions. Under slight conditions, the produced estimators are consistent and asymptotically efficient. Maximum likelihood problems can be handled as non-linear programming problems, possibly non convex, that can be solved for instance using line-search methods and trust-region algorithms. Moreover, under some conditions, it is possible to exploit the structures of such problems in order to speedup convergence. In this work, we consider various non-linear programming techniques, either standard or recently developed, within the maximum likelihood estimation perspective. We also propose new algorithms to solve this estimation problem, capitalizing on Hessian approximation techniques and developing new methods to compute steps, in particular in the context of line-search approaches. More specifically, we investigate methods that allow us switching between Hessian approximations and adapting the step length along the search direction. We finally assess the numerical efficiency of the proposed methods for the estimation of discrete choice models, more precisely mixed logit models.
9

Le problème de Dirichlet pour les équations de Monge-Ampère complexes / The dirichlet problem for complex Monge-Ampère equations

Charabati, Mohamad 14 January 2016 (has links)
Cette thèse est consacrée à l'étude de la régularité des solutions des équations de Monge-Ampère complexes ainsi que des équations hessiennes complexes dans un domaine borné de Cn. Dans le premier chapitre, on donne des rappels sur la théorie du pluripotentiel. Dans le deuxième chapitre, on étudie le module de continuité des solutions du problème de Dirichlet pour les équations de Monge-Ampère lorsque le second membre est une mesure à densité continue par rapport à la mesure de Lebesgue dans un domaine strictement hyperconvexe lipschitzien. Dans le troisième chapitre, on prouve la continuité hölderienne des solutions de ce problème pour certaines mesures générales. Dans le quatrième chapitre, on considère le problème de Dirichlet pour les équations hessiennes complexes plus générales où le second membre dépend de la fonction inconnue. On donne une estimation précise du module de continuité de la solution lorsque la densité est continue. De plus, si la densité est dans Lp , on démontre que la solution est Hölder-continue jusqu'au bord. / In this thesis we study the regularity of solutions to the Dirichlet problem for complex Monge-Ampère equations and also for complex Hessian equations in a bounded domain of Cn. In the first chapter, we give basic facts in pluripotential theory. In the second chapter, we study the modulus of continuity of solutions to the Dirichlet problem for complex Monge-Ampère equations when the right hand side is a measure with continuous density with respect to the Lebesgue measure in a bounded strongly hyperconvex Lipschitz domain. In the third chapter, we prove the Hölder continuity of solutions to this problem for some general measures. In the fourth chapter, we consider the Dirichlet problem for complex Hessian equations when the right hand side depends on the unknown function. We give a sharp estimate of the modulus of continuity of the solution as the density is continuous. Moreover, for the case of Lp-density we demonstrate that the solution is Hölder continuous up to the boundary.

Page generated in 0.0462 seconds