71 |
Identification de paramètres et analyses de sensibilité pour un modèle d'usinage par jet d'eau abrasif / Identification of unknown model parameters and sensitivity analysis for abrasive waterjet milling processGroza, Vladimir 09 November 2016 (has links)
Ce travail fait partie du projet Marie-Curie ITN STEEP, dans le domaine des faisceaux énergétiques. Nous étudions ici l'identification de paramètres pour un modèle générique d'usinage par jet d'eau abrasif. L'étude de ce problème trouve son origine dans les applications industrielles d'usinage, où la nécessité de modéliser et prédire la surface finale avec une très grande précision est essentielle en l'absence de connaissance des paramètres du modèle Nous proposons ici une méthode d'identification des paramètres du modèle basée sur la minimisation d'une fonction coût, mesurant la différence entre la solution numérique et les observations expérimentales. L'approche variationnelle, basée sur le Lagrangien, permet de considérer l'adjoint, et l'utilisation d'un logiciel de différentiation automatique (TAPENADE) conduit à une identification rapide et précise des paramètres, quelles que soient la complexité et la taille du problème étudié. La qualité de l'identification peut être fortement instable et dépendre largement des données expérimentales en cas de bruit. Nous introduisons alors des termes de régularisation permettant de gérer la présence d'erreurs de mesure. Plusieurs cas d'usinage par jet abrasif sont considérés: problème stationnaire, jet qui se déplace à vitesse constante, ou en accélérant, utilisation synthétiques ou réelles L'étude de sensibilité montre la robustesse de l'approche, qui permet d'obtenir de très bons résultats acceptables d'un point de vue industriel / This work is part of STEEP Marie-Curie ITN project, covering the research in field of energy beam processing. We focus on the identification of unknown parameters of the proposed generic Abrasive WaterJet Milling (AWJM) model. The necessity of studying this problem comes from the industrial milling applications where the possibility to predict and model the final surface with high accuracy is one of the primary tasks in the absence of any knowledge of the model parameters that should be used. We propose the method of the model parameters identification by minimizing a cost function, measuring the difference between experimental observation and numerical solution. The variational approach based on corresponding Lagrangian allows to obtain the adjoint state and the involvement of the automatic differentiation software tool (TAPENADE) leads to fast and efficient parameters identification. In fact the parameter identification problem is highly unstable and strictly depends on quality of input data. Regularization terms could be effectively used to deal with the presence of measurement errors. Various cases of the AWJM process such as a stationary problem and moving with constant feed speed or acceleration are studied based on both artificial and real experimental data. The sensitivity study related to these particular problems demonstrates the strong capability of the proposed approach to obtain acceptable
|
72 |
Formalisation et automatisation de YAO, générateur de code pour l’assimilation variationnelle de données / Formalisation and automation of YAO, code generator for variational data assimilationNardi, Luigi 08 March 2011 (has links)
L’assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d’un modèle numérique direct, en minimisant une fonction de coût mesurant l’écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d’observation). Lors de la mise en œuvre de l’AD 4D-Var, il faut faire face à des problèmes d’implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d’aider au développement d’applications d’AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d’un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d’implémenter divers scénarios pour la mise en œuvre de sessions d’assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d’abord formalisé d’une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l’automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d’un parcours “optimal” de l’ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L’objectif à moyen terme, des résultats de cette thèse, est d’établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l’assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles. / Variational data assimilation 4D-Var is a well-known technique used in geophysics, and in particular in meteorology and oceanography. This technique consists in estimating the control parameters of a direct numerical model, by minimizing a cost function which measures the misfit between the forecast values and some actual observations. The minimization, which is based on a gradient method, requires the computation of the adjoint model (product of the transpose Jacobian matrix and the derivative vector of the cost function at the observation points). In order to perform the 4DVar technique, we have to cope with complex program implementations, in particular concerning the adjoint model, the parallelization of the code and an efficient memory management. To address these difficulties and to facilitate the implementation of 4D-Var applications, LOCEAN is developing the YAO framework. YAO proposes to represent a direct model with a computation flow graph called modular graph. Modules depict computation units and edges between modules represent data transfer. Description directives proper to YAO allow a user to describe its direct model and to generate the modular graph associated to this model. YAO contains two core algorithms. The first one is a forward propagation algorithm on the graph that computes the output of the numerical model; the second one is a back propagation algorithm on the graph that computes the adjoint model. The main advantage of the YAO framework, is that the direct and adjoint model programming codes are automatically generated once the modular graph has been conceived by the user. Moreover, YAO allows to cope with many scenarios for running different data assimilation sessions.This thesis introduces a computer science research on the YAO framework. In a first step, we have formalized in a more general way the existing YAO specifications. Then algorithms allowing the automatization of some tasks have been proposed such as the automatic generation of an “optimal” computational ordering and the automatic parallelization of the generated code on shared memory architectures using OpenMP directives. This thesis permits to lay the foundations which, at medium term, will make of YAO a general and operational platform for data assimilation 4D-Var, allowing to process applications of high dimensions.
|
73 |
Modélisation analytique et simulation numérique de la nucléation et de la propagation de la fissure cohésive couplée avec la plasticité / Analytical modelisation and numerical simulation of the nucleation and the propagation of cohesive crack coupled with plasticityPham, Tuan Hiep 08 January 2016 (has links)
L’objectif de cette thèse est d’étudier l’évolution de la fissure sous les effets de plasticité et du champ de contrainte non-uniforme à l’aide du modèle de zone cohésive. Dans un premier temps, l’évolution de la fissure au sein du matériau élastoplastique est explorée dans le cadre de l’approche variationnelle. Les solutions sont explicitées dans le cas d’une barre 1D sous traction simple grâce aux conditions de stabilité locale d’énergie au premier ordre et au second ordre. Cette étude nous permet de mettre en lumière l’effet de la plasticité sur le comportementadoucissant du matériau dès que la fissure cohésive apparaît. En effet, la réponse globale de la barre sous déplacement imposé est stable seulement si la longueur de la barre est inférieure à une longueur critique. Cette dernière est démontrée indépendante du module d’écrouissage plastique mais dépend du module Young et de la dérivée seconde de la densité d’énergie de fissure. Les formulations énergétiques peuvent être généralisées pour la structure 3D. Dans ce cas, les critères de plasticité et de cohésif deviennent les courbes dans le plan des contraintes de Mohr. La comparaison des courbes nous permet d’étudier la nucléation de fissure cohésive au sein du domaine plastifié. Dans un deuxième temps, les effets de la non-uniformité du champ de contrainte sur la nucléation de la fissure au sein de la structure élastique sont mis en évidence. On construit la solution analytique en utilisant la technique à deux échelles et l’analyse complexe. L’évolution de la fissure purement cohésive et partiellement non-cohésive est contrôlée par le gradient du champ de contrainte lié à une longueur caractéristique. L’utilisation des différentes lois cohésives dans le problème est explorée. La sensibilité de la solution à la taille du défaut préexistant est également étudiée. Finalement, des résultats analytiques sont validés par les simulations numériques et le modèle de zone cohésive en mode mixte est implémenté dans Code_Aster. / The aims of this work is to study the cracks evolution under plasticity and nonuniform stress field effects by using cohesive zone model. Firstly, basing on the variational approach, the crack evolution in the elastoplastic material is investigated. The solutions for 1D beam under simple tension is expressed explicitly through the first and the second orders stability conditions of energy. This study shows us the plasticity effects on the material softening behavior as soon as crack appears. In fact, the global solution of the beam under described displacement is stable only if the beam length is lower than a characteristic length. This length is independent of plasticity hardening module but depends on Young modulus and on the second derivative of crack energy density. The energy formulations can be generalized for 3D structure. In this case, the plasticity and cohesive criteria become two curves in Mohr’s stresses plane. The comparison between theses curves allows us to consider the crack nucleation in the plastified domain. Secondly, the non-uniform stress field effects on the crack nucleation in the elastic material is highlighted. The analytical solution is established by using two-scales techniqueand complex analysis. The evolution of fully cohesive crack and partially non-cohesive crack is controlled by the stress gradient, which is related to a characteristic length. Different cohesive laws are used in our study. The sensitivity of solution to preexisting imperfection size is also explored. Finally, analytical results are validated by numerical simulations and the cohesive zone model in mixed mode is implemented in Code_Aster.
|
74 |
A model for land use and freight transportation coordination in Shanghai, ChinaXu, Yiwen January 1999 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
75 |
Mise en correspondance stéréoscopique par approches variationnelles convexes ; application à la détection d'obstacles routiersSouid-Miled, Wided 17 December 2007 (has links) (PDF)
Cette thèse porte sur la mise en correspondance stéréoscopique ainsi que sur son application à la détection des obstacles routiers à partir d'un système de vision stéréoscopique. La mise en correspondance est une étape cruciale dans la reconstruction de la structure tridimensionnelle de la scène observée. Elle consiste à retrouver les pixels homologues dans deux images prises de deux points de vue différents, et se ramène à un problème d'estimation d'un champ de disparité. La première partie de ma thèse a porté sur l'estimation de la disparité, dans le cadre d'une approche ensembliste, en minimisant une fonction objective convexe sur l'intersection d'ensembles convexes, construits à partir des connaissances a priori et des observations. Dans la plupart des applications de stéréovision, le champ de disparité doit être lisse dans les zones homogènes et les zones faiblement texturées. L'une de nos contributions a consisté à proposer différentes contraintes de régularisation satisfaisant cette propriété. Pour résoudre le problème d'optimisation considéré, nous utilisons un algorithme efficace itératif par bloc. La deuxième partie traite du problème d'estimation de la disparité en présence de changements d'illumination dans la scène observée. Nous considérons pour cela un modèle d'illumination multiplicatif qui permet de compenser les variations spatiales de luminosité de la scène. Enfin, dans la troisième partie, nous appliquons notre méthode d'estimation de la disparité robuste aux variations d'illumination pour la détection des obstacles routiers.
|
76 |
Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnellesCastaings, William 24 October 2007 (has links) (PDF)
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. météorologie, océanographie ...) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données).
|
77 |
Sur quelques problèmes elliptiques de type Kirchhoff et dynamique des fluides / On some elliptic problems ok Kirchhoff-type and fluid dynamicsBensedik, Ahmed 07 June 2012 (has links)
Cette thèse est composée de deux parties indépendantes. La première est consacrée à l'étude de quelques problèmes elliptiques de type de Kirchhoff de la forme suivante : -M(ʃΩNul² dx) Δu = f(x, u) xЄΩ ; u(x) = o xЄƋΩ où Ω cRN, N ≥ 2, f une fonction de Carathéodory et M une fonction strictement positive et continue sur R+. Dans le cas où la fonction f est asymptotiquement linéaire à l’infini par rapport à l'inconnue u, on montre, en combinant une technique de troncature et la méthode variationnelle, que le problème admet au moins une solution positive quand la fonction M est non décroissante. Et si f(x, u) = |u|p-1 u + λg(x), où p >0, λ un paramètre réel et g une fonction de classe C1 et changeant de signe sur Ω, alors sous certaines hypothèses sur M, il existe deux réels positifs λ. et λ. tels que le problème admet des solutions positives si 0 < λ <λ. et n'admet pas de solutions positives si λ > λ.. Dans la deuxième partie, on étudie deux problèmes soulevés en dynamique des fluides. Le premier est une généralisation d'un modèle décrivant la propagation unidirectionnelle dispersive des ondes longues dans un milieu à deux fluides. En écrivant le problème sous la forme d'une équation de point fixe, on montre l'existence d'au moins une solution positive. On montre ensuite sa symétrie et son unicité. Le deuxième problème consiste à prouver l'existence de la vitesse, la pression et la température d'un fluide non newtonien, incompressible et non isotherme, occupant un domaine borné, en prenant en compte un terme de convection. L’originalité dans ce travail est que la viscosité du fluide ne dépend pas seulement de la vitesse mais aussi de la température et du module du tenseur des taux de déformations. En se basant sur la notion des opérateurs pseudo-monotones, le théorème de De Rham et celui de point fixe de Schauder, l'existence du triplet, (vitesse, pression, température) est démontré / This thesis consists of two independent parts. The first is devoted to the study of some elliptic problems of Kirchhoff-type in the following form : -M(ʃΩNul² dx) Δu = f(x, u) xЄΩ ; u(x) = o xЄƋΩ where Ω cRN, N ≥ 2, f is a Caratheodory function and M is a strictly positive and continuous function on R+. In the case where the function f is asymptotically linear at infinity with respect to the unknown u, we show, by combining a truncation technique and the variational method, that the problem admits a positive solution when the function M is nondecreasing. And if f(x, u) = |u|p-1 u + λg(x) where p> 0, λ a real parameter and g is a function of class C1 and changes the sign in Ω, then under some assumptions on M, there exist two positive real λ. and λ. such that the problem admits positive solutions if 0 < λ <λ., and no positive solutions if λ > λ.. In the second part, we study two problems arising in fluid dynamics. The first is a generalization of a model describing the unidirectional propagation of long waves in dispersive medium with two fluids. By writing the problem as a fixed point equation, we prove the existence of at least one positive solution. We then show its symmetry and uniqueness. The second problem is to prove the existence of the velocity, pressure and temperature of a non-Newtonian, incompressible and isothermal fluid, occupying a bounded domain, taking into account a convection term. The originality in this work is that the fluid viscosity depends not only on the velocity but also on the temperature and the modulus of deformation rate tensor. Based on the notion of pseudo-monotone operators, the De Rham theorem and the Schauder fixed point theorem, the existence of the triplet, (velocity, pressure, temperature) is shown
|
78 |
Techniques variationnelles et calcul parallèle en imagerie : Estimation du flot optique avec luminosité variable en petits et larges déplacements / Variational techniques and parallel computing in computer vision : Optical flow estimation with varying illumination in small and large displacementsGilliocq-Hirtz, Diane 07 July 2016 (has links)
Le travail présenté dans cette thèse porte sur l'estimation du flot optique par méthodes variationnelles en petits et en grands déplacements. Nous proposons un modèle basé sur la combinaison locale-globale à laquelle nous ajoutons la prise en compte des variations de la luminosité. La particularité de ce manuscrit réside dans l'utilisation de la méthode des éléments finis pour la résolution des équations. En effet, cette méthode se fait pour le moment très rare dans le domaine du flot optique. Grâce à ce choix de résolution, nous proposons d'implémenter un contrôle local de la régularisation ainsi qu'une adaptation de maillage permettant d'affiner la solution au niveau des arêtes de l'image. Afin de réduire les temps de calcul, nous parallélisons les programmes. La première méthode implémentée est la méthode parallèle en temps appelée pararéel. En couplant un solveur grossier et un solveur fin, cet algorithme permet d'accélérer les calculs. Pour pouvoir obtenir un gain de temps encore plus important et également traiter les séquences en haute définition, nous utilisons ensuite une méthode de décomposition de domaine. Combinée au solveur massivement parallèle MUMPS, cette méthode permet un gain de temps de calcul significatif. Enfin, nous proposons de coupler la méthode de décomposition de domaine et le pararéel afin de profiter des avantages de chacune. Dans une seconde partie, nous appliquons tous ces modèles dans le cas de l'estimation du flot optique en grands déplacements. Nous proposons de nous servir du pararéel afin de traiter la non-linéarité de ce problème. Nous terminons par un exemple concret d'application du flot optique en restauration de films. / The work presented in this thesis focuses on the estimation of the optical flow through variational methods in small and large displacements. We propose a model based on the combined local-global strategy to which we add the consideration of brightness intensity variations. The particularity of this manuscript is the use of the finite element method to solve the equations. Indeed, for now, this method is really rare in the field of the optical flow. Thanks to this choice of resolution, we implement an adaptive control of the regularization and a mesh adaptation to refine the solution on the edges of the image. To reduce computation times, we parallelize the programs. The first method implemented is a parallel in time method called parareal. By combining a coarse and a fine solver, this algorithm speeds up the computations. To save even more time and to also be able to handle high resolution sequences, we then use a domain decomposition method. Combined with the massively parallel solver MUMPS, this method allows a significant reduction of computation times. Finally, we propose to couple the domain decomposition method and the parareal to have the benefits of both methods. In the second part, we apply all these models to the case of the optical flow estimation in large displacements. We use the parareal method to cope with the non-linearity of the problem. We end by a concrete example of application of the optical flow in film restoration.
|
79 |
Génération et adaptation de maillage volume-couche limite dynamique pour les écoulements turbulents autour de géométries complexes / Boundary-volume mesh generation and adaptation for turbulent flows around complex geometriesBillon, Laure 09 December 2016 (has links)
La simulation numérique des écoulements turbulents en aérodynamique est très complexe. Elle consiste en l'étude de l'interaction entre un fluide et un profilimmergé. On observe à la surface du profil une zone de vitesse ralentie, nommée couche limite. L'étude fine de la couche limite est primordiale pour la résolution précise de l'écoulement. Elle nécessite de ce fait un maillage particulièrement fin et structuré. Nous proposons une procédure automatique permettant de générer un maillage adapté pour la résolution précise de la couche limite en accord avec la théorie et les caractéristiques physiques de l'écoulement. De plus, afin de décrire l'écoulement turbulent dans toute sa complexité à moindres coûts, nous proposons de combiner le maillage couche limite à une méthode d’adaptation de maillage dynamique.A cet effet, nous avons utilisé une version avancée de l'adaptation de maillagesur l'erreur a posteriori basée sur les arêtes et développé une méthode permettant à la fois de conserver la structure et le raffinement dans la couche limite mais également de décrire précisément les recirculations et le sillage. La nouvelle méthode d'adaptation volume-couche limite a été validée sur des cas2D et 3D à géométries complexes. Les résultats mettent en relief le potentiel decette approche et ouvre des perspectives intéressantes pour l'adaptation de maillage en mécanique des fluides. / Numerical simulation of turbulent aerodynamics flows remains challenging. Such fluid-structure interaction problem involves generally a thin layer close to the wall where the fluid is slow down, called boundary layer. This latter requires a carefull study of the boundary layer since it is crucial regarding the accuracyof the complete flow computation. Therefore, a fine and structured mesh is needed close to the wall. In this work, we propose a novel automatic procedure to build a correct boundary layer mesh according to the theory and the flow parameters. Moreover, in order to describe exactly the behaviour of the flow on the whole domain, the boundary layer mesh is combined with a dynamic mesh adaptation method.It follows an advanced version of the edge based mesh adaptation method. Combined together, they ensure a fine and structured mesh in the boundarylayer while all the flow vortices are accurately resolved. This new method, called boundary-volume mesh adaptation, has been validated on several 2D and 3Dtest cases with complex geometries. Results emphasises the capacity ofthe approach and offer opportunities of improvement for numerical fluid mechanics mesh adaptation.
|
80 |
Algorithmes bayésiens variationnels accélérés et applications aux problèmes inverses de grande taille / Fast variational Bayesian algorithms and their application to large dimensional inverse problemsZheng, Yuling 04 December 2014 (has links)
Dans le cadre de cette thèse, notre préoccupation principale est de développer des approches non supervisées permettant de résoudre des problèmes de grande taille le plus efficacement possible. Pour ce faire, nous avons considéré des approches bayésiennes qui permettent d'estimer conjointement les paramètres de la méthode avec l'objet d'intérêt. Dans ce cadre, la difficulté principale est que la loi a posteriori est en général complexe. Pour résoudre ce problème, nous nous sommes intéressés à l'approximation bayésienne variationnelle (BV) qui offre une approximation séparable de la loi a posteriori. Néanmoins, les méthodes d’approximation BV classiques souffrent d’une vitesse de convergence faible. La première contribution de cette thèse consiste à transposer les méthodes d'optimisation par sous-espace dans l'espace fonctionnel impliqué dans le cadre BV, ce qui nous permet de proposer une nouvelle méthode d'approximation BV. Nous avons montré l’efficacité de notre nouvelle méthode par les comparaisons avec les approches de l’état de l’art.Nous avons voulu ensuite confronter notre nouvelle méthodologie à des problèmes de traitement d'images de grande taille. De plus nous avons voulu favoriser les images régulières par morceau. Nous avons donc considéré un a priori de Variation Total (TV) et un autre a priori à variables cachées ressemblant à un mélange scalaire de gaussiennes par changement de positions. Avec ces deux modèles a priori, en appliquant notre méthode d’approximation BV, nous avons développé deux approches non-supervisées rapides et bien adaptées aux images régulières par morceau.En effet, les deux lois a priori introduites précédemment sont corrélées ce qui rend l'estimation des paramètres de méthode très compliquée : nous sommes souvent confronté à une fonction de partition non explicite. Pour contourner ce problème, nous avons considéré ensuite de travailler dans le domaine des ondelettes. Comme les coefficients d'ondelettes des images naturelles sont généralement parcimonieux, nous avons considéré des lois de la famille de mélange scalaire de gaussiennes par changement d'échelle (GSM) pour décrire la parcimonie. Une autre contribution est donc de développer une approche non-supervisée pour les lois de la famille GSM dont la densité est explicitement connue, en utilisant la méthode d'approximation BV proposée. / In this thesis, our main objective is to develop efficient unsupervised approaches for large dimensional problems. To do this, we consider Bayesian approaches, which allow us to jointly estimate regularization parameters and the object of interest. In this context, the main difficulty is that the posterior distribution is generally complex. To tackle this problem, we consider variational Bayesian (VB) approximation, which provides a separable approximation of the posterior distribution. Nevertheless, classical VB methods suffer from slow convergence speed. The first contribution of this thesis is to transpose the subspace optimization methods to the functional space involved in VB framework, which allows us to propose a new VB approximation method. We have shown the efficiency of the proposed method by comparisons with the state of the art approaches. Then we consider the application of our new methodology to large dimensional problems in image processing. Moreover, we are interested in piecewise smooth images. As a result, we have considered a Total Variation (TV) prior and a Gaussian location mixture-like hidden variable model. With these two priors, using our VB approximation method, we have developed two fast unsupervised approaches well adapted to piecewise smooth images.In fact, the priors introduced above are correlated which makes the estimation of regularization parameters very complicated: we often have a non-explicit partition function. To sidestep this problem, we have considered working in the wavelet domain. As the wavelet coefficients of natural images are generally sparse, we considered prior distributions of the Gaussian scale mixture family to enforce sparsity. Another contribution is therefore the development of an unsupervised approach for a prior distribution of the GSM family whose density is explicitly known, using the proposed VB approximation method.
|
Page generated in 0.1036 seconds