• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 35
  • 4
  • Tagged with
  • 119
  • 47
  • 31
  • 30
  • 30
  • 29
  • 28
  • 24
  • 21
  • 21
  • 21
  • 20
  • 19
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Assimilation variationnelle de données pour des modèles emboîtés

Simon, Ehouarn 08 November 2007 (has links) (PDF)
Les modèles emboîtés sont largement utilisés en météorologie et en océanographie. Ils permettent un accroissement local de la résolution, dans les zones où cela semble nécessaire, via l'intégration d'un même modèle sur une hiérarchie de grilles. Dans le cas d'interaction one-way, les conditions aux frontières pour la grille fine proviennent d'une interpolation de la solution obtenue sur la grille à plus faible résolution. Dans le cas d'interaction two-way, une rétroaction de la grille fine vers la grille grossière est ajoutée. Toutefois, le problème de l'assimilation variationnelle de données dans de tels systèmes n'a pas, ou peu, été étudié à ce jour. Ces classes de méthodes, notamment l'algorithme 4D-Var, permettent d'améliorer la solution d'un modèle, jusqu'ici mono-grille, en minimisant une fonctionnelle mesurant l'écart de ce modèle aux observations présentes sur une fenêtre temporelle. Le travail présenté ici vise donc à formuler un algorithme d'assimilation 4D-Var localement multi-grille. Pour le cas général d'une grille haute résolution emboîtée localement dans une autre à plus faible résolution, nous posons les équations du système adjoint dans les deux cas d'interactions one-way et two-way. Nous montrons ainsi que la formulation adjointe fait naturellement apparaître de nouvelles interactions entre les grilles, dans le sens opposé de celles existant dans la formulation directe. De plus, nous proposons différentes variantes à ces algorithmes, réalisant un couplage faible entre les solutions des différents modèles via l'ajout d'un terme de contrôle au niveau des transferts inter-grilles. Nous présentons également l'application d'une méthode multi-grille, le Full Approximation Scheme, à l'assimilation variationnelle de données. Cette approche permet d'obtenir un algorithme d'assimilation multi-grille potentiellement très efficace. Enfin, ces méthodes sont testées sur le cas d'un modèle Saint Venant 2D. Nous constatons une réduction importante des erreurs des solutions multi-grilles, ainsi qu'une accélération de la convergence de ces algorithmes.
62

Formalisation et automatisation de YAO, générateur de code pour l’assimilation variationnelle de données

Nardi, Luigi 08 March 2011 (has links)
L’assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d’un modèle numérique direct, en minimisant une fonction de coût mesurant l’écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d’observation). Lors de la mise en œuvre de l’AD 4D-Var, il faut faire face à des problèmes d’implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d’aider au développement d’applications d’AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d’un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d’implémenter divers scénarios pour la mise en œuvre de sessions d’assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d’abord formalisé d’une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l’automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d’un parcours “optimal” de l’ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L’objectif à moyen terme, des résultats de cette thèse, est d’établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l’assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles. / Variational data assimilation 4D-Var is a well-known technique used in geophysics, and in particular in meteorology and oceanography. This technique consists in estimating the control parameters of a direct numerical model, by minimizing a cost function which measures the misfit between the forecast values and some actual observations. The minimization, which is based on a gradient method, requires the computation of the adjoint model (product of the transpose Jacobian matrix and the derivative vector of the cost function at the observation points). In order to perform the 4DVar technique, we have to cope with complex program implementations, in particular concerning the adjoint model, the parallelization of the code and an efficient memory management. To address these difficulties and to facilitate the implementation of 4D-Var applications, LOCEAN is developing the YAO framework. YAO proposes to represent a direct model with a computation flow graph called modular graph. Modules depict computation units and edges between modules represent data transfer. Description directives proper to YAO allow a user to describe its direct model and to generate the modular graph associated to this model. YAO contains two core algorithms. The first one is a forward propagation algorithm on the graph that computes the output of the numerical model; the second one is a back propagation algorithm on the graph that computes the adjoint model. The main advantage of the YAO framework, is that the direct and adjoint model programming codes are automatically generated once the modular graph has been conceived by the user. Moreover, YAO allows to cope with many scenarios for running different data assimilation sessions.This thesis introduces a computer science research on the YAO framework. In a first step, we have formalized in a more general way the existing YAO specifications. Then algorithms allowing the automatization of some tasks have been proposed such as the automatic generation of an “optimal” computational ordering and the automatic parallelization of the generated code on shared memory architectures using OpenMP directives. This thesis permits to lay the foundations which, at medium term, will make of YAO a general and operational platform for data assimilation 4D-Var, allowing to process applications of high dimensions.
63

Sur quelques problèmes elliptiques de type Kirchhoff et dynamique des fluides

Bensedik, Ahmed 07 June 2012 (has links) (PDF)
Cette thèse est composée de deux parties indépendantes. La première est consacrée à l'étude de quelques problèmes elliptiques de type de Kirchhoff de la forme suivante : -M(ʃΩNul² dx) Δu = f(x, u) xЄΩ ; u(x) = o xЄƋΩ où Ω cRN, N ≥ 2, f une fonction de Carathéodory et M une fonction strictement positive et continue sur R+. Dans le cas où la fonction f est asymptotiquement linéaire à l'infini par rapport à l'inconnue u, on montre, en combinant une technique de troncature et la méthode variationnelle, que le problème admet au moins une solution positive quand la fonction M est non décroissante. Et si f(x, u) = |u|p-1 u + λg(x), où p >0, λ un paramètre réel et g une fonction de classe C1 et changeant de signe sur Ω, alors sous certaines hypothèses sur M, il existe deux réels positifs λ. et λ. tels que le problème admet des solutions positives si 0 < λ <λ. et n'admet pas de solutions positives si λ > λ.. Dans la deuxième partie, on étudie deux problèmes soulevés en dynamique des fluides. Le premier est une généralisation d'un modèle décrivant la propagation unidirectionnelle dispersive des ondes longues dans un milieu à deux fluides. En écrivant le problème sous la forme d'une équation de point fixe, on montre l'existence d'au moins une solution positive. On montre ensuite sa symétrie et son unicité. Le deuxième problème consiste à prouver l'existence de la vitesse, la pression et la température d'un fluide non newtonien, incompressible et non isotherme, occupant un domaine borné, en prenant en compte un terme de convection. L'originalité dans ce travail est que la viscosité du fluide ne dépend pas seulement de la vitesse mais aussi de la température et du module du tenseur des taux de déformations. En se basant sur la notion des opérateurs pseudo-monotones, le théorème de De Rham et celui de point fixe de Schauder, l'existence du triplet, (vitesse, pression, température) est démontré
64

Miroirs de Bragg pour ondes de matière et apport de la supersymétrie aux potentiels exponentiels

Fabre, Charlotte 30 August 2012 (has links) (PDF)
Ce manuscrit est séparé en deux parties, toutes deux traitant de la diffusion d'une onde de matière guidée sur des potentiels façonnés. La première partie montre la réalisation expérimentale d'un miroir de Bragg pour ondes atomiques. Nous commençons par décrire le dispositif expérimental permettant d'obtenir des condensats de Bose-Einstein avec un piège optique dipolaire croisé. Le découplage du condensat et sa mise en mouvement dans un guide optique sont ensuite détaillés. La mise en place et la caractérisation du réseau optique sur lequel le condensat diffuse sont expliquées. Enfin, nous détaillons le processus de diffusion lui-même, et expliquons en particulier le rôle joué par l'enveloppe du réseau. Selon la profondeur du réseau, celui-ci réfléchit différentes classes de vitesses du paquet d'ondes de matière incident. Ces observations rappellent la physique à l'oeuvre dans les miroirs optiques diélectriques, encore baptisés miroirs de Bragg. Dans la deuxième partie, nous étudions la diffusion sur des potentiels de forme exponentielle. Le spectre et les états de diffusion sont obtenus exactement. Nous appliquons ensuite le formalisme de la supersymétrie appliquée à la mécanique quantique qui permet de déduire les familles de potentiels isospectraux correspondantes. De plus, nous exploitons ces solutions exactes pour tester la précision de plusieurs approximations utilisées en mécanique quantique (approximations semi-classiques et méthode variationnelle).
65

Modèles et inférence pour des systèmes stochastiques structurés

Forbes, Florence 07 December 2010 (has links) (PDF)
Le contexte de mon travail est la mise au point d'outils statistiques pour le dévelopement et l'analyse de modèles stochastiques structurés. L'idée sous-jacente à la notion de structure est qu'il est souvent possible à l'aide d'hypothèses locales simples combinées de manière cohérente de rendre compte de phénomènes globaux potentiellement complexes. Cette idée de construction du local vers le global guide ainsi la modélisation, l'estimation et l'interprétation. Cette approche se révèle utile dans des domaines variés tels que le traitement du signal et de l'image, les neurosciences, la génomique, l'épidémiologie, etc. Inversement les besoins de ces domaines ont pu susciter en retour des développements théoriques importants. Par ailleurs, beaucoup de techniques statistiques sont encore limitées par des d'hypothèses restrictives pouvant conduire à des analyses imprécises voire erronées. Différentes sources de complexité peuvent mettre en défaut les approches classiques. Souvent les données exhibent une structure de dépendance non triviale, due par exemple à des répétitions, des groupements, des méthodes d'échantillonnage particulières, des associations dans l'espace ou le temps. Une seconde source de complexité est liée au processus de mesure qui peut impliquer l'utilisation d'instruments physiquement très différents, qui produisent des données hétérogènes, en grandes dimensions et potentiellement de manière défaillante de sorte qu'une partie des données peut être manquante. La plupart de mes objectifs de recherche sont centrés sur la mise au point de modèles et d'outils d'inférence pouvant faire face à ce genre de complications fréquentes dans les données modernes et contribuer ainsi au développement de nouvelles méthodes statistiques. En ce qui concerne la notion de dépendance et de localité, un concept central est celui d'indépendance conditionnelle. Les propriétés de Markov et les modèles markoviens permettent d'énoncer de telles indépendances conditionnelles et ce thème est central dans ma recherche. Pour ce qui est des données manquantes ou incomplètes, les modèles de mélanges sont une approche classique. Ces modèles conduisent plus généralement à la notion de modèles à structure manquantes. Ces derniers sont également utiles pour rendre compte d'hétérogénéités dans les données. Ils trouvent de nombreux échos en statistique: modèles de mélanges finis, modèles de Markov cachés, modèles à effet aléatoire, etc. La présence de données incomplètes induit cependant généralement des difficultés pour ce qui est de l'estimation des paramètres et de l'évaluation des performances. Modèles markoviens et modèles de mélanges sont mes deux principaux thèmes de recherche avec cette idée unificatrice de structure dans les modèles mais aussi dans les données. J'ai pu montrer que ces deux thèmes pouvaient être reliés utilement en traitant des problèmes difficiles dans diverses applications. Plus précisément, j'ai developpé des modèles à structure cachée essentiellement dans le but de résoudre des problèmes de classifications inhérents à certaines questions. J'ai souvent abordé le problème de l'estimation de ces modèles à partir de l'algorithme EM et développé des variantes permettant d'apporter des solutions satisfaisantes lorsque les outils classiques faisaient défaut. J'ai tenté également d'apporter des résultats sur les propriétés théoriques, e.g. convergence et vitesse, de ces algorithmes. Enfin, j'ai abordé la question de la sélection de modèles essentiellement en cherchant à proposer des critères de sélection dans les cas où les critères classiques n'étaient pas calculables.
66

Marche aléatoire auto-évitante en auto-interaction

Nguyen, Gia Bao 17 October 2013 (has links) (PDF)
Dans cette thèse nous étudions le phénomène d'effondrement de différents modèles d'homopolymères. Nous étudions une marche aléatoire partiellement dirigée en dimension 1+1, auto-évitante et en auto-interaction, connue sous l'acronyme anglais IPDSAW. Il est établi que le modèle IPDSAW a une transition de phase d'effondrement en un paramètre critique $\beta_c$. Pour étudier la fonction de partition de ce modèle, nous développons une nouvelle méthode qui nous permet d'en déduire une formule variationnelle pour son énergie libre. Cette formule variationnelle peut être utilisée pour prouver l'existence de la transition d'effondrement et pour identifier simplement le point critique. Nous donnons une asymptotique précise de l'énergie libre au voisinage du point critique. Ensuite, nous établissons plusieurs propriétés trajectorielles de notre marche aléatoire à l'intérieur de la phase effondrée ($\beta>\beta_c$). Finalement, nous étudions le modèle IPDSAW soumis à une force extérieure. Nous montrons comment détecter la présence d'un phénomène de ré-entrance sans toutefois résoudre intégralement le modèle.
67

Wavelet-based multiscale simulation of incompressible flows / Simulation multi-échelle pour les écoulements incompressibles basée sur les ondelettes

Pinto, Brijesh 29 June 2017 (has links)
Cette thèse se concentre sur le développement d'une méthode précise et efficace pour la simulation des grandes échelles (LES) des écoulements turbulents. Une approche de la LES basée sur la méthode variationnelle multi-échelles (VMS) est considérée. La VMS applique aux équations de la dynamique des fluides une séparation d'échelles a priori sans recours à des hypothèses sur les conditions aux limites ou sur l'uniformité du maillage. Afin d'assurer effectivement une séparation d'échelles dans l'espace des nombres d'onde associé, nous choisissons d'utiliser les ondelettes de deuxième génération (SGW), une base polynomiale qui présente des propriétés de localisation spatiale-fréquence optimales. A partir de la séparation d'échelles ainsi réalisée, l'action du modèle sous-maille est limitée à un intervalle de nombres d'onde proche de la coupure spectrale. Cette approche VMS-LES basée sur les ondelettes est désignée par WAVVMS-LES. Elle est incorporée dans un solveur d'ordre élevé pour la simulation des écoulements incompressibles sur la base d'une méthode de Galerkin discontinue (DG-FEM) stabilisée pour la pression. La méthode est évaluée par réalisation de LES sur des maillages fortement sous-résolus pour le cas test du tourbillon de Taylor-Green 3D à deux nombres de Reynolds différents. / This thesis focuses on the development of an accurate and efficient method for performing Large-Eddy Simulation (LES) of turbulent flows. An LES approach based upon the Variational Multiscale (VMS) method is considered. VMS produces an a priori scale-separation of the governing equations, in a manner which makes no assumptions on the boundary conditions and mesh uniformity. In order to ensure that scale-separation in wavenumber is achieved, we have chosen to make use of the Second Generation Wavelets (SGW), a polynomial basis which exhibits optimal space-frequency localisation properties. Once scale-separation has been achieved, the action of the subgrid model is restricted to the wavenumber band closest to the cutoff. We call this approach wavelet-based VMS-LES (WAV-VMS-LES). This approach has been incorporated within the framework of a high-order incompressible flow solver based upon pressure-stabilised discontinuous Galerkin FEM (DG-FEM). The method has been assessed by performing highly under-resolved LES upon the 3D Taylor-Green Vortex test case at two different Reynolds numbers.
68

Modelisation directe et inverse d'ecoulements geophysiques viscoplastiques par methodes variationnelles : Application a la glaciologie / Direct and inverse modeling of viscoplastic geophysical flows using variational methods : Application to glaciology

Martin, Nathan 10 July 2013 (has links)
Un certain nombre d’écoulements géophysiques, tels que les écoulements de glace ou de lave magmatique, impliquent le mouvement gravitaire à faible nombre de Reynolds d’un fluide viscoplastique à surface libre sur un socle rocheux. Leur modélisation fait apparaître des lois de comportement rhéologique et des descriptions de leurs intéractions avec le socle rocheux qui reposent sur des paramétrisations empiriques. Par ailleurs, l’observation systématique de ce type d’écoulements avec une grande précision est rarement possible ; les données associées à l’observation de ces écoulements, principalement des données de surface (télédétections), peuvent être peu denses, manquantes ou incertaines. Elles sont aussi le plus souvent indirectes : des paramètres inconnus comme le glissement basal ou la rhéologie sont difficilement mesurables in situ.Ce travail de thèse s’attache à la modélisation directe et inverse de ces écoulements géophysiques, particulièrement les écoulements de glace, par des méthodes variationnelles à travers la résolution du problème de Stokes pour les fluides en loi de puissance.La méthode de résolution du problème direct (Stokes non-linéaire) repose sur le principe du minimum de dissipation qui mène à un problème variationnel de type point-selle à quatre champs pour lequel on montre l’existence de solutions. La condition d’incompressibilité et la loi de comportement représentent alors des contraintes associées au problème de minimisation. La recherche des points critiques du lagrangien correspondant est réalisée à l’aide d’un algorithme de type lagrangien augmenté, discrétisé par éléments finis triangles à trois champs. Cet algorithme conduit à un important gain tant en temps de calcul qu’en utilisation mémoire par rapport aux algorithmes classiques.On s’intéresse ensuite à la modélisation numérique inverse de ces fluides à l’aide du modèle adjoint et des deux principaux outils associés : l’analyse de sensibilité et l’assimilation de données. On étudie tout d’abord la modélisation rhéologique de ces fluides à travers les deux paramètres principaux de la loi de comportement : la consistance du fluide et l’exposant rhéologique. Des analyses de sensibilité sur ces paramètres définis localement, permettent de quantifier leurs poids relatifs au sein du modèle d’écoulement, en termes de vitesses de surface. L’identification de ces grandeurs est également réalisée. L’ensemble des résultats est résumé comme une méthodologie vers une “rhéométrie virtuelle” pouvant représenter une aide solide à la mesure rhéologique.Le glissement basal, paramètre majeur dans la dynamique de la glace, est investigué selon la même approche. Les analyses de sensibilité mettent en avant une capacité à voir à travers le caractère “filtré” et non-local de la transmission de la variabilité basale vers la surface, ouvrant des perspectives vers l’utilisation des sensibilités pour la définition de lieux d’intérêt pour l’observation et la mesure. Ce glissement basal, modélisation empirique d’un processus complexe et multiéchelle, est ensuite utilisé pour la comparaison avec une méthode inverse approximative courante en glaciologie (méthode négligeant la dépendance de la viscosité à la vitesse, i.e. la non-linéarité). Le modèle adjoint, obtenu par différentiation automatique et évalué par accumulation retour, permet de définir cette approximation comme un cas limite de la méthode inverse complète. Ce formalisme mène à une généralisation du processus d’évaluation numérique de l’état adjoint, ajustable en précision et en temps de calcul en fonction de la qualité des données et du niveau de détail souhaité dans la reconstruction.L’ensemble de ces travaux est associé au développement du logiciel DassFlow-Ice de simulation directe et inverse de fluides viscoplastiques à surface libre. Ce logiciel prospectif bidimensionnel, diffusé dans la communauté glaciologique, a donné lieu au développement d’une version tridimensionnelle. / Several geophysical flows, such as ice flows or lava flows, are described by a gravity-driven low Reynolds number movement of a free surface viscoplastic fluid over a bedrock. Their modeling involves constitutive laws, typically describing their rheological behavior or interactions with their bedrock, that lean on empirical parameterizations. Otherwise, the thorough observation of this type of flows is rarely possible; data associated to the observation of these flows, mainly remote-sensed surface data, can be sparse, missing or uncertain. They are also generally indirect : unknown parameters such as the basal slipperiness or the rheology are difficult to measure on the field.This PhD work focuses on the direct and inverse modeling of these geophysical flows described by the power-law Stokes model, specifically dedicated to ice flows, using variational methods.The solution of the direct problem (Stokes non-linear) is based on the principle of minimal dissipation that leads to a variational four-field saddle-point problem for which we ensure the existence of a solution. In this context, the incompressibility condition and the constitutive rheological law represent constraints associated to the minimization problem. The critical points of the corresponding Lagrangian are determined using an augmented Lagrangian type algorithm discretized using three- field finite elements. This algorithm provides an important time and memory saving compared to classical algorithms.We then focus on the inverse numerical modeling of these fluids using the adjoint model through two main associated tools : sensitivity analysis and data assimilation. We first study the rheological modeling through the two principal input parameters (fluid consistency and rheological exponent). Sensitivity analyses with respect to these locally defined parameters allow to quantify their relative weights within the flow model, in terms of surface velocities. Identification of these parameters is also performed. The results are synthetized as a methodology towards “virtual rheometry” that could help and support rheological measurements.The basal slipperiness, major parameter in ice dynamics, is investigated using the same approach. Sensitivity analyses demonstrate an ability to see beyond the ”filtered” and non-local transmission of the basal variability to the surface. Consequently these sensitivities can be used to help defining areas of interest for observation and measurement. This basal slipperiness, empirical modeling of a multiscale complex process, is then used to carry on a comparison with a so called “self-adjoint” method, common in glaciology (neglecting the dependency of the viscosity on the velocity, i.e. the non-linearity). The adjoint model, obtained by automatic differentiation and evaluated by reverse accumulation, leads to define this approximation as a limit case of the complete inverse method. This formalism allows to generalize the process of the numerical evaluation of the adjoint state into an incomplete adjoint method, adjustable in time and accuracy depending on the quality of the data and the level of detail required in the identification.All this work is associated to the development of DassFlow-Ice software dedicated to the direct and inverse numerical simulation of free-surface viscoplastic fluids. This bidimensional prospective software, distributed within the glaciological com- munity, serves as a model for the current development of the tridimensional version.
69

Modélisation de la rupture par forces cohésives : formulations et exemples d'applications / Modeling of the rupture by cohesive forces : formulations and examples of applications

Massamba, Fidèle 06 December 2016 (has links)
Dans le contexte industriel actuel, l'utilisation du modèle de forces cohésives en milieu solide revêt d'une importance capitale dans des nombreux domaines d'applications dont en particulier le domaine du transport, du nucléaire ou du génie-civil. En conséquence, la présente étude propose une modélisation numérique de la rupture fragile d'une plaque en acier en présence des forces cohésives. Le logiciel Cast3M est utilisé pour la mise en œuvre numérique. Le modèle de type Dugdale est utilisé et permet de calculer dans le cas d'une plaque élasto-plastique la distribution de contraintes à la pointe de fissure. Le modèle suppose, qu'à la pointe de fissure sur une longueur cohésive Lzc, les contraintes cohésives σc (x1), suivant l'axe Ox1 restent constante avec une amplitude égale à σc. Le domaine de rupture élastique et le domaine de ruine plastique a été prisent en compte. L'approche peut être considérée comme une extension de la mécanique linéaire de ruptures dans laquelle est introduite la notion de contrainte critique, ce qui permet en particulier de mieux rendre compte des effets d'échelle. A partir du principe de superposition des contraintes en mode I de rupture, les calcules dans la configuration déformée de la plaque fissurée a été étendue à d'autres géométries plus simples : une plaque avec fissure sans force cohésive, mais avec charge extérieure appliquée, une plaque avec une fissure purement cohésive et une plaque avec une fissure partiellement cohésive et sans charge extérieure. Ces différentes formes géométriques ont été prises en compte dans la modélisation numérique ainsi que la création de la fissure et le démarrage de la propagation. Le paramètre énergétique calculé selon la formule de l'intégrale J de Rice (1968) est également prise en compte et est comparé avec les résultats analytiques de Ferdjani et al. (2007). / In the context of industrial applications, the linear fracture mechanics theory is not sufficient to account for various aspects of the crack propagation and it becomes necessary to use more sophisticated models like cohesive force models. The goal of the present thesis is to develop such a model in order to account for all the process of the crack propagation, from the nucleation in a sound structure to the final failure of that structure. Specifically, we use Dugdale model which contains both the concept of critical stress and of internal length. The presence of a critical stress allows us to account for the nuckleation of a crack even if the body is initially sound, in contrast with Griffith theory which require the existence of preexisting cracks. The presence of an internal length allows us to account for pertinent scale effects, once again in contrast with Griffith theory in which the predicted scale effects are only correct for large specimen, not for small specimen. This approach is used to describe the full process of cracking in several cases, either by purely analytical methods when the geometry is simple enough, or by the finite element method with the code Cast3M in the case of complex geometry.
70

Study of variational ensemble methods for image assimilation / Étude de méthodes d'ensemble variationelles pour l'assimilation d'images

Yang, Yin 16 December 2014 (has links)
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière. / The hybrid methods combing the 4D variational method and the ensemble Kalman filter provide a flexible framework. In such framework the potential advantages with respect to each method (e.g. the flow-dependent background error covariance, the ability to explicitly get the analysis error covariance matrix, the iterative minimization procedure and the simultaneously assimilation of all observations with in a time span etc.) can be retained. In this thesis, an enhanced ensemble-based 4DVar scheme is proposed and has been analyzed in detail in the case of the 2D shallow water model. Several variations related to this method are introduced and tested. We proposed a new nested loop scheme in which the background error covariance matrix is updated for each outer loop. We also devised different ensemble update schemes together with two localization schemes. And we exploited the links between the analysis error covariance matrix and the inverse Hessian of our 4D cost function. All these variants have been tested with the real Kinect-captured image data and synthetic image data associated with a SQG (Surface Quasi-Geostrophic) model, respectively. At the second stage, a parameter estimation scheme of our proposed ensemble-based variational method is devised. Such formulation allows the parameter estimation of an uncertainty subgrid stress tensor. And this uncertainty subgrid stress tensor is derived from a perspective of flow phenomenon driven by a stochastic process. Finally, a first effort is made to assimilation high-resolution image data with the dynamical model running on a much coarser grid.

Page generated in 0.1019 seconds