1 |
Contribution à l'étude de l'endommagement de matériaux composites par estimation des termes sources et des diffusivités thermiques / Contribution to the study of damage to composite materials by estimation of source terms and thermal diffusivitiesCastillo, Anthony 12 December 2017 (has links)
Ce travail porte sur la détection de l’endommagement de matériaux composites. Une première partie concerne l’élaboration de méthodes permettant d’estimer les termes sources de chaleur d’un matériau sollicité mécaniquement. Lors de ce processus, un ensemble de défauts mécaniques mènent à des productions de chaleur. La détection des sources peut permettre la détection de ces défauts. Deux principales méthodes sont présentées : une méthode dite « directe » basée sur une discrétisation du champ de température mesuré et une méthode « itérative » basée sur la méthode du gradient conjugué. A ces méthodes sont couplées des techniques de filtrages des données comme la SVD. Les équations sont résolues par différences finies sous leur forme linéaire. Des modifications sont apportées à l’algorithme itératif pour améliorer sa convergence ainsi que les résultats. Les problématiques envisagées font partie des problèmes inverses en thermique. L’objectif de la première partie est de trouver un lien entre l’apparition de macro-fissure et la localisation de termes sources de chaleur au sein d’un matériau composite. La seconde partie consiste à élaborer des méthodes d’estimation des diffusivités thermiques directionnelles. Les méthodes reposent sur une modélisation du transfert de chaleur à l’aide des quadripôles thermiques. Les estimations de paramètres sont réalisées sur des zones ciblées à risque sur un matériau déjà endommagé. Le but est de faire le lien entre un endommagement mécanique connu diffus et une dégradation des propriétés thermiques. Ce manuscrit est présenté en deux parties : une partie de validation des méthodes. Une partie expérimentale où sont analysés les composites. / This work deals with the damage detection of composite materials. These materials are used in the aeronautics industry. The first part concerns the development of methods to estimate the heat sources terms of a stressed material. During this process, a set of mechanical defects leads to heat productions. The sources detection can conduct to the detection of these defects. Two main methods are presented: a "direct" method based on a discretization of the measured temperature field and an "iterative" method based on the conjugate gradient method. These methods are coupled with data filtering techniques such as SVD. In order to optimize computation time, equations are solved by finite differences in their linear form. Modifications are also made for the iterative algorithm to improve its convergence as well as the results of the estimation. These problems are considered as thermal inverse problems. The main objective of the first part is to find an experimental link between the appearance of a macro fissure and the localization of a heat source term within a composite material. The second part consists in the elaboration of methods for estimating thermal directional diffusivities. The methods are based on a modeling of heat transfer using thermal quadrupoles. Parameter estimations are made on targeted "risked" areas on a material, which is already damaged but not under stress. The aim is to link a known mechanical damage, which is called "diffuse" to thermal properties degradation in the main directions. This manuscript is presented in two parts: a validation part of the methods, and an experimental part in which composites are analyzed.
|
2 |
Résolution de problèmes non linéaires par les méthodes de points intérieurs. Théorie et algorithmes.Ouriemchi, Mohammed 08 December 2005 (has links) (PDF)
Les méthodes barrières proposent de résoudre le problème non linéaire en résolvant une suite de problèmes pénalisés. Le lien entre la suite, dite externe, des solutions des fonctions pénalisées et la solution du problème initial a été établie dans les années soixante.<br /><br /> Dans cette thèse, nous avons utilisé une fonction barrière logarithmique. A chaque itération externe, la technique SQP se charge de produire une série de sous-problèmes quadratiques dont les solutions forment une suite, dite interne, de directions de descente pour résoudre le problème non linéaire pénalisé.<br /><br /> Nous avons introduit un changement de variable sur le pas de déplacement ce qui a permis d'obtenir des conditions d'optimalité plus stable numériquement.<br /><br /> Nous avons réalisé des simulations numériques pour comparer les performances de la méthode des gradients conjugués à celle de la méthode D.C., appliquées pour résoudre des problèmes quadratiques de région de confiance.<br /><br /> Nous avons adapté la méthode D.C. pour résoudre les sous-problèmes verticaux, ce qui nous a permis de ramener leurs dimensions de $n+m$ à $m+p$ ($ p < n $).<br /><br /> L'évolution de l'algorithme est contrôlée par la fonction de mérite. Des tests numériques permettent de comparer les avantages de différentes formes de la fonction de mérite. Nous avons introduit de nouvelles règles pour améliorer cette évolution.<br /><br /> Les expériences numériques montrent un gain concernant le nombre de problèmes résolus. L'étude de la convergence de notre méthode SDC, clôt ce travail.
|
3 |
Simulations massivement parallèles des écoulements turbulents à faible nombre de MachMalandain, Mathias 15 January 2013 (has links) (PDF)
L'objectif de cette thèse est l'accélération des solveurs de Gradient Conjugué avec déflation utilisés pour la résolution de l'équation de Poisson pour la pression, dans le cas de la simulation d'écoulements à faible nombre de Mach sur des maillages non structurés. Une méthode de redémarrage basée sur une estimation de l'effet des erreurs numériques a été mise en œuvre et validée. Par la suite, une méthode à trois niveaux de maillage a été créée, et deux techniques ont dû être développées pour réduire le nombre d'itérations sur les niveaux grossiers : l'une permet la création de solutions initiales grâce à une méthode de projection adaptée, l'autre consiste en une adaptation du critère de convergence sur les niveaux grossiers. Les résultats numériques sur des simulations massivement parallèles montrent entre autres une réduction considérable du temps de calcul global. D'autres pistes de recherche sont introduites, notamment concernant l'équilibrage dynamiques de charge de calcul.
|
4 |
Solving regularized nonlinear least-squares problem in dual space with application to variational data assimilation / Résolution de problèmes des moindres carrés non-linéaires régularisés dans l'espace dual avec applications à l'assimilation de donnéesGürol, Selime 14 June 2013 (has links)
Cette thèse étudie la méthode du gradient conjugué et la méthode de Lanczos pour la résolution de problèmes aux moindres carrés non-linéaires sous déterminés et régularisés par un terme de pénalisation quadratique. Ces problèmes résultent souvent d'une approche du maximum de vraisemblance, et impliquent un ensemble de m observations physiques et n inconnues estimées par régression non linéaire. Nous supposons ici que n est grand par rapport à m. Un tel cas se présente lorsque des champs tridimensionnels sont estimés à partir d'observations physiques, par exemple dans l'assimilation de données appliquée aux modèles du système terrestre. Un algorithme largement utilisé dans ce contexte est la méthode de Gauss- Newton (GN), connue dans la communauté d'assimilation de données sous le nom d'assimilation variationnelle des données quadridimensionnelles. Le procédé GN repose sur la résolution approchée d'une séquence de moindres carrés linéaires optimale dans laquelle la fonction coût non-linéaire des moindres carrés est approximée par une fonction quadratique dans le voisinage de l'itération non linéaire en cours. Cependant, il est bien connu que cette simple variante de l'algorithme de Gauss-Newton ne garantit pas une diminution monotone de la fonction coût et sa convergence n'est donc pas garantie. Cette difficulté est généralement surmontée en utilisant une recherche linéaire (Dennis and Schnabel, 1983) ou une méthode de région de confiance (Conn, Gould and Toint, 2000), qui assure la convergence globale des points critiques du premier ordre sous des hypothèses faibles. Nous considérons la seconde de ces approches dans cette thèse. En outre, compte tenu de la grande échelle de ce problème, nous proposons ici d'utiliser un algorithme de région de confiance particulier s'appuyant sur la méthode du gradient conjugué tronqué de Steihaug-Toint pour la résolution approchée du sous-problème (Conn, Gould and Toint, 2000, p. 133-139) La résolution de ce sous-problème dans un espace à n dimensions (par CG ou Lanczos) est considérée comme l'approche primale. Comme alternative, une réduction significative du coût de calcul est possible en réécrivant l'approximation quadratique dans l'espace à m dimensions associé aux observations. Ceci est important pour les applications à grande échelle telles que celles quotidiennement traitées dans les systèmes de prévisions météorologiques. Cette approche, qui effectue la minimisation de l'espace à m dimensions à l'aide CG ou de ces variantes, est considérée comme l'approche duale. La première approche proposée (Da Silva et al., 1995; Cohn et al., 1998; Courtier, 1997), connue sous le nom de Système d'analyse Statistique de l'espace Physique (PSAS) dans la communauté d'assimilation de données, commence par la minimisation de la fonction de coût duale dans l'espace de dimension m par un CG préconditionné (PCG), puis revient l'espace à n dimensions. Techniquement, l'algorithme se compose de formules de récurrence impliquant des vecteurs de taille m au lieu de vecteurs de taille n. Cependant, l'utilisation de PSAS peut être excessivement coûteuse car il a été remarqué que la fonction de coût linéaire des moindres carrés ne diminue pas monotonement au cours des itérations non-linéaires. Une autre approche duale, connue sous le nom de méthode du gradient conjugué préconditionné restreint (RPCG), a été proposée par Gratton and Tshimanga (2009). Celle-ci génère les mêmes itérations en arithmétique exacte que l'approche primale, à nouveau en utilisant la formule de récurrence impliquant des vecteurs taille m. L'intérêt principal de RPCG est qu'il en résulte une réduction significative de la mémoire utilisée et des coûts de calcul tout en conservant la propriété de convergence souhaitée, contrairement à l'algorithme PSAS. / This thesis investigates the conjugate-gradient method and the Lanczos method for the solution of under-determined nonlinear least-squares problems regularized by a quadratic penalty term. Such problems often result from a maximum likelihood approach, and involve a set of m physical observations and n unknowns that are estimated by nonlinear regression. We suppose here that n is large compared to m. These problems are encountered for instance when three-dimensional fields are estimated from physical observations, as is the case in data assimilation in Earth system models. A widely used algorithm in this context is the Gauss-Newton (GN) method, known in the data assimilation community under the name of incremental four dimensional variational data assimilation. The GN method relies on the approximate solution of a sequence of linear least-squares problems in which the nonlinear least-squares cost function is approximated by a quadratic function in the neighbourhood of the current nonlinear iterate. However, it is well known that this simple variant of the Gauss-Newton algorithm does not ensure a monotonic decrease of the cost function and that convergence is not guaranteed. Removing this difficulty is typically achieved by using a line-search (Dennis and Schnabel, 1983) or trust-region (Conn, Gould and Toint, 2000) strategy, which ensures global convergence to first order critical points under mild assumptions. We consider the second of these approaches in this thesis. Moreover, taking into consideration the large-scale nature of the problem, we propose here to use a particular trust-region algorithm relying on the Steihaug-Toint truncated conjugate-gradient method for the approximate solution of the subproblem (Conn, Gould and Toint, 2000, pp. 133-139). Solving this subproblem in the n-dimensional space (by CG or Lanczos) is referred to as the primal approach. Alternatively, a significant reduction in the computational cost is possible by rewriting the quadratic approximation in the m-dimensional space associated with the observations. This is important for large-scale applications such as those solved daily in weather prediction systems. This approach, which performs the minimization in the m-dimensional space using CG or variants thereof, is referred to as the dual approach. The first proposed dual approach (Courtier, 1997), known as the Physical-space Statistical Analysis System (PSAS) in the data assimilation community starts by solving the corresponding dual cost function in m-dimensional space by a standard preconditioned CG (PCG), and then recovers the step in n-dimensional space through multiplication by an n by m matrix. Technically, the algorithm consists of recurrence formulas involving m-vectors instead of n-vectors. However, the use of PSAS can be unduly costly as it was noticed that the linear least-squares cost function does not monotonically decrease along the nonlinear iterations when applying standard termination. Another dual approach has been proposed by Gratton and Tshimanga (2009) and is known as the Restricted Preconditioned Conjugate Gradient (RPCG) method. It generates the same iterates in exact arithmetic as those generated by the primal approach, again using recursion formula involving m-vectors. The main interest of RPCG is that it results in significant reduction of both memory and computational costs while maintaining the desired convergence property, in contrast with the PSAS algorithm. The relation between these two dual approaches and the question of deriving efficient preconditioners (Gratton, Sartenaer and Tshimanga, 2011), essential when large-scale problems are considered, was not addressed in Gratton and Tshimanga (2009).
|
5 |
Simulations massivement parallèles des écoulements turbulents à faible nombre de Mach / Massively parallel simulation of low-Mach number turbulent flowMalandain, Mathias 15 January 2013 (has links)
L'objectif de cette thèse est l'accélération des solveurs de Gradient Conjugué avec déflation utilisés pour la résolution de l'équation de Poisson pour la pression, dans le cas de la simulation d'écoulements à faible nombre de Mach sur des maillages non structurés. Une méthode de redémarrage basée sur une estimation de l'effet des erreurs numériques a été mise en œuvre et validée. Par la suite, une méthode à trois niveaux de maillage a été créée, et deux techniques ont dû être développées pour réduire le nombre d'itérations sur les niveaux grossiers : l'une permet la création de solutions initiales grâce à une méthode de projection adaptée, l'autre consiste en une adaptation du critère de convergence sur les niveaux grossiers. Les résultats numériques sur des simulations massivement parallèles montrent entre autres une réduction considérable du temps de calcul global. D'autres pistes de recherche sont introduites, notamment concernant l'équilibrage dynamiques de charge de calcul. / The main objective of this thesis is to accelerate deflated Conjugate Gradient solvers used for solving the pressure Poisson equation, for the simulation of low-Mach number flows on unstructured meshes. A restart method based on an estimation of the effect of numerical errors has been implemented and validated. Then, a three-level deflation method has been created, and two techniques are developed in order to reduce the number of iterations on the coarse levels : one of them is the creation of initial guesses thanks to a well-suited projection method, the other one consists in adapting the convergence criterion on the coarse grids. Numerical results on massively parallel simulations show, among others, a drastic reduction of the computational times of the solver. Other lines of research are introduced, especially regarding dynamic load balancing.
|
6 |
Problèmes d'approximation matricielle linéaires coniques: Approches par Projections et via Optimisation sous contraintes de semi-définie positivitéTAKOUDA, Pawoumodom Ledogada 29 September 2003 (has links) (PDF)
Dans cette thèse, nous considérons l'étude et la mise en \oe uvre de différentes approches numériques de résolution de problèmes dits d'approximation linéaire conique, en nous concentrant sur les approches par projections et par optimisation sous contraintes de semi-définie positivité. Un problème d'approximation matricielle consiste dans un espace normé de matrices à chercher la matrice ayant une certaine propriété $\mathcal(P)$, la plus proche au sens de la norme de l'espace, d'une matrice $A$ donnée. Ces problèmes apparaissent dans différents domaines, et ont été étudiés par \textsc(Higham) qui en propose un procédure de résolution consistant en les trois points suivants : existence et unicité des solutions, caractérisation et solution explicite éventuelles, algorithmes efficaces de calculs de ces solutions. Nous nous plaçons dans un cadre euclidien, et considérons les cas où les matrices vérifiant la propriété $\mathcal(P)$ forment un ensemble convexe déterminé par des contraintes affines et coniques. Nous parlons alors d'(\it approximation matricielle linéaire conique). Nous prenons comme exemples d'application deux problèmes d'approximation correspondant à des ensembles connus en Analyse convexe pour leur "bonne" structure, mais pour lesquels la résolution explicite d'un problème d'approximation s'avère ardu. Le premier exemple provient d'applications en Recherche opérationnelle ou en Mécanique quantique, et consiste à trouver la matrice bistochastique la plus proche d'une matrice donnée. Le second problème est celui de la calibration de matrices de corrélation, qui est d'une importance majeure en analyse du risque financier encouru avec un choix de portefeuille d'actions boursières donné. Nous étudions et mettons en \oe uvre pour les problèmes d'approximation matricielle linéaire conique deux approches de nature différente. La première est primale : elle consiste à interpréter le problème comme étant celui de la projection sur un convexe qui est l'intersection de convexes plus simples sur lesquels les projections sont faciles. Cela nous permet de proposer un algorithme de projections alternées, inspiré des modifications apportées par \textsc(Boyle et Dykstra) à l'algorithme classique de Von Neumann. La seconde est de type primal-dual, et s'inscrit dans la lignée des récentes avancées obtenues en optimisation sous contraintes de semi-définie positivité ((\it Semidefinite Programming)). Elle consiste en la mise en \oe uvre d'un algorithme de points intérieurs, en utilisant une démarche novatrice consistant en l'utilisation de directions de recherches de Gauss-Newton, obtenues par gradients conjugués et en l'introduction en fin d'algorithme d'une étape de "crossover" permettant d'obtenir asymptotiquement de la convergence superlinéaire. Nous présentons pour chacun des problèmes d'approximation pris en exemples des résultats numériques illustrant les différentes approches ci-dessus et les comparant entre elles de différents points de vue. En application, nous proposons aussi une généralisation de la procédure d'agrégation de préférences de \textsc(Blin) en utilisant l'approximation par matrices bistochastiques.
|
7 |
Fluxmétrie et caractérisation thermiques instationnaires des dépôts des composants face au plasma du Tokamak JET par techniques inverses / Measurement of powerflux and thermal characterization of deposits in non-stationary conditions on plasma facing components of the JET Tokamak by inverse methodsGaspar, Jonathan 27 September 2013 (has links)
Ces travaux portent sur la résolution successive de deux problèmes inverses en transferts thermiques : l'estimation de la densité de flux en surface d'un matériau puis de la conductivité thermique équivalente d'une couche déposée en surface de ce matériau. Le modèle direct est bidimensionnel orthotrope (géométrie réelle d'un matériau composite), instationnaire, non-linéaire et ses équations sont résolues par éléments finis. Les matériaux étudiés sont les composants face au plasma (tuiles composite carbone-carbone) dans le Tokamak JET. La densité de flux recherchée varie avec une dimension spatiale et avec le temps. La conductivité du dépôt de surface varie spatialement et peut également varier au cours du temps pendant l'expérience (toutes les autres propriétés thermophysiques dépendent de la température). Les deux problèmes inverses sont résolus à l'aide de l'algorithme des gradients conjugués associé à la méthode de l'état adjoint pour le calcul exact du gradient. La donnée expérimentale utilisée pour la résolution du premier problème inverse (estimation de flux surfacique) est le thermogramme fourni par un thermocouple enfoui. Le second problème inverse utilise, lui, les variations spatio-temporelles de la température de surface du dépôt inconnu (thermographie infrarouge) pour identifier sa conductivité. Des calculs de confiance associée aux grandeurs identifiées sont réalisés avec la démarche Monte Carlo. Les méthodes mises au point pendant ces travaux aident à comprendre la dynamique de l'interaction plasma-paroi ainsi que la cinétique de formation des dépôts de carbone sur les composants et aideront au design des composants des machines futures (WEST, ITER). / This work deals with the successive resolution of two inverse heat transfer problems: the estimation of surface heat flux on a material and equivalent thermal conductivity of a surface layer on that material. The direct formulation is bidimensional, orthotropic (real geometry of a composite material), unsteady, non-linear and solved by finite elements. The studied materials are plasma facing components (carbon-carbon composite tiles) from Tokamak JET. The searched heat flux density varies with time and one dimension in space. The surface layers conductivity varies spatially and can vary with time during the experiment (the other thermophysical properties are temperature dependent). The two inverse problems are solved by the conjugate gradient method with the adjoint state method for the exact gradient calculation. The experimental data used for the first inverse problem resolution (surface heat flux estimation) is the thermogram provided by an embedded thermocouple. The second inverse problem uses the space and time variations of the surface temperature of the unknown surface layer (infrared thermography) for the conductivity identification. The confidence calculations associated to the estimated values are done by the Monte Carlo approach. The method developed during this thesis helps to the understanding of the plasma-wall interaction dynamic, as well as the kinetic of the surface carbon layer formation on the plasma facing components, and will be helpful to the design of the components of the future machines (WEST, ITER).
|
Page generated in 0.0975 seconds