• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 35
  • 14
  • Tagged with
  • 148
  • 44
  • 25
  • 22
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modélisation électrochimique de la vitesse de corrosion généralisée du fer en milieu poreux : contribution à un modèle prédictif de la durabilité des aciers non alliés en conditions de stockage géologique / Electrochemical modeling of the general corrosion rate of iron in porous medium : contribution to a predictive model of the durability of unalloyed steels in geological storage conditions

Marion, Antoine 03 February 2014 (has links)
Les enveloppes métalliques en acier non allié choisies par l’Andra comme surconteneurs pour le stockage des déchets radioactifs seront principalement soumises à la corrosion généralisée. L’objectif de ce travail est de démontrer qu’il est possible de simuler sur le long terme cette vitesse de corrosion de façon à bien dimensionner les surconteneurs pour qu’ils restent étanches et confinent la radioactivité des déchets qu’ils contiennent pendant plusieurs siècles.La modélisation par la méthode des éléments finis, basée sur la résolution numérique de l’équation de Nernst-Planck en potentiel libre a donc été utilisée pour prévoir le comportement électrochimique de ces aciers sur des durées inaccessibles à des expériences en laboratoire. A partir d’études paramétriques (influence des constantes de cinétique électrochimique, des constantes cinétiques associées aux réactions chimiques, de la température) et en se basant sur plusieurs comparaisons entre expériences de laboratoire et simulations numériques, il a été possible de déterminer l’ensemble des paramètres et des règles de fonctionnement nécessaires pour construire et utiliser un modèle numérique prédictif le plus complet possible.Dans la simulation à long terme, qui constitue le résultat majeur du travail, on constate qu’après épuisement de l’oxygène dissous initialement piégé, la vitesse de corrosion est contrôlée par le recouvrement de la surface métallique dû à l’apparition de produits de corrosion (magnétite, sidérite). Ce phénomène induit une diminution de la porosité totale, identifiée comme déterminante dans le ralentissement de la vitesse de corrosion. / Unalloyed steels selected by Andra for nuclear waste storage would be mainly affected by general corrosion. The aim of this study is to demonstrate that it is possible to simulate the long term corrosion rate in order to estimate the thickness of the containers expected to maintain the confinement for several centuries. Modeling by the finite element method, based on the resolution of Nernst-Planck equation in free potential conditions has been used to predict the electrochemical behavior of these steels impossible to reach at long time through laboratory experiments. From parametric studies (influence of electrochemical kinetic constants, kinetic constants dealing with chemical reactions, temperature) and in the light of several comparisons between laboratory and numerical experiments, it was possible to determine all the parameters and all the rules to build and use the most completed predictive numerical model.The main result of this study is a long term prediction model. After a first step it was established that dissolved oxygen initially trapped is consumed, whereas the corrosion rate is controlled by the fractional coverage of the surface due to the formation of corrosion products (magnetite, siderite). As a consequence, the decrease of the total porosity can be identified as a key parameter in the reduction of the corrosion rate.
92

Écoulements de fluides à seuil en milieux confinés / Flow of yield stress fluids in confined geometries

Chevalier, Thibaud 24 October 2013 (has links)
Afin de mieux comprendre les spécificités de l'écoulement des fluides en seuil en géométries confinées, nous avons opté pour une approche multi-échelle expérimentale et/ou numérique dans des milieux poreux complexes et modèles. Nous montrons qu'il est possible d'utiliser la RMN pour visualiser des écoulements de fluides à seuil en géométrie complexe. Dans un milieu poreux, il est également possible de mesurer la distribution statistique des vitesses, ceci sans problème de résolution spatiale, grâce à la méthodologie de réglage d'une expérience d'injection sous IRM que nous avons mise en place. A l'aide de ces techniques, nous montrons que l'écoulement d'un fluide à seuil dans un pore modèle (une expansion-contraction axisymétrique) se localise dans la partie centrale du pore, dans le prolongement du tube d'entrée, tandis que les régions extérieures restent dans le régime solide. Des simulations numériques confirment ces résultats et montrent que la localisation de l'écoulement provient du confinement engendré par la géométrie. A l'inverse, nous montrons que pour un fluide à seuil s'écoulant dans un milieu poreux réel (en trois dimensions), il n'existe pas de zones au repos. De plus, la distribution de vitesse est identique à celle d'un fluide newtonien. Une analyse de ces résultats nous permet de prédire la forme de la loi de Darcy pour les fluides à seuil et de comprendre l'origine physique des paramètres déterminés par des expériences d'injection « macroscopiques » / To better understand the specifics of the flow of yield stress fluids in confined geometries, we opted for a multi-scale experimental and / or numerical approach in complex and model porous media. We show the usefulness of NMR for the study of yield stress fluid's flows in complex geometry. In a porous medium, we can also measure the true probability density function of fluid velocities without spatial resolution problem thanks to a complete optimisation of the design process of a NMR-PGSE experiment. Using these measurement technics, we find that the flow of a yield stress fluid in a model pore (an axisymetric expansion-contraction) is localised in the central part of the pore, i.e. in the continuity of the entry duct, and the external region stay at rest in the solid regime. Numerical simulations confirm those results and point out that the flow localisation is due to the confinement caused by the geometry. On the contrary, no region at rest exists for a yield stress fluid flowing through a real porous media (in 3D). Furthermore, the velocity distribution is the same as a newtonian fluid. The analysis of the results makes it possible to deduce the form of the Darcy's law for yield stress fluids and provides an insight in the physical origin of the coefficients found by “macroscopical” injection experiments
93

Computational tools for nonlinear analysis of steel and composite steelconcrete structures considering connection bahaviour : Application to buildings and bridges / Outils de simulation pour l'analyse non-linéaire des structures aciers et mixtes et de leur assemblage : applications aux bâtiments et aux ponts

Alhasawi, Anas 17 January 2017 (has links)
Cette thèse a pour objectifs de développer une modélisation aussi fine que possible des structures aciers et mixtes acier-béton sous sollicitations cycliques avec prise en compte d'une part du comportement des assemblages et d'autre part des non-linéarités géométriques et du contact à l'interface acier-béton. Notre attention porte en particulier sur l'assemblage de type poutre acier/mixte sur poteau métallique par platine d'extrémité boulonnée. L'objectif étant de proposer un modèle «élément fini» d'assemblage qui reproduit aussi fidèlement que possible le comportement cyclique de ce dernier pour ensuite l'assembler à un élément fini de poutre non-linéaire acier ou mixte avec prise en compte, pour ce dernier, du soulèvement à l'interface. Le travail se compose de 3 parties distinctes. Un premier modèle qui se base sur la méthode des composantes a été développé ayant pour objectif de suivre la déformation de chaque composante au cours des cycles et de prendre en compte les non-linéarités induites par la séparation entre la platine d'extrémité et la semelle du poteau auquel elle est boulonnée. Ce modèle type composantes, a été développé pour une rangée de boulons. Dans le cas le plus fréquent, de deux rangées de boulons, une résistance de groupe (en plus des résistances individuelles de chacune des rangées) est susceptible de se développer. Pour rendre compte de ce phénomène, nous avons implanté le modèle proposé par Cerfontaine qui repose sur la définition d'une surface de charge et une règle d'écoulement associée pour déterminer les allongements des ressorts équivalents. Seul le cas de plasticité parfaite est considéré. Il est mis en évidence que l'influence de l'effet de groupe s'avère non négligeable sur le comportement post-élastique de l'assemblage et donc de la structure. Dans une seconde phase, nous proposons un modèle de poutre métallique classique en grands déplacements (approche co-rotationnelle) avec rotules généralisées aux extrémités. Nous faisons l'hypothèse que les déformations plastiques sont concentrées aux rotules dont le comportement plastique est contrôlé par une surface de charge asymétrique (anisotrope) qui peut prendre différentes formes selon la valeur donnée à un facteur q dit « facteur de forme». Chacune de ces rotules plastiques comprend un ressort longitudinal pour l'effort normal Net un ressort spiral pour le moment fléchissant M. L'interaction (M-N) entre ces deux efforts dans le domaine plastique est régie par le critère de plasticité. Le modèle de rotule plastique généralisé proposé permet de rendre compte de l'adoucissement cyclique, de la ductilité et du « pinching effect ».Nous montrons aux travers de plusieurs exemples la pertinence mais également les limites d'une telle approche. Dans une troisième partie, nous proposons un nouvel élément fini de poutre mixte (à 6 ddl par nœud) en petits déplacements avec prise en compte de la non-linéarité matérielle de la poutre ainsi que du contact entre l'acier et le béton. Une stratégie efficace de type nœud mobile (Flying Node) est proposée pour déterminer l'étendue de la surface de contact au sein d'un élément fini et d'adapter le maillage de l'élément poutre/poteau. Pour la résolution du problème de contact, la technique du Lagrangien Augmenté a été retenue. On montre que dans certaines situations, le soulèvement modifie la redistribution des efforts. / The goal of this thesis is to develop computational tools for the nonlinear analysis of steel and composite steel-concrete structures under cyclic loading taking into account the actual behaviour of joint, material and geometry non-linearities and contact conditions at the steel-to-concrete interface. In particular, our efforts focuses on typical bolted end-plate connection between steel or composite beam and steel column. The objective is to develop a new «joint finite element" able to reproduce accurately the cyclic behavior of the beam-to-column connection. Next this model is combined with a non-linear steel/composite beam element considering slip and possible uplift at the interface. The thesis consists of three major parts. The first part deals with the behavior of a steel beam-to-column bolted end-plate connection under arbitrarily cyclic loading. The proposed model is based on an improved component method that closely follows the deformation of each component taking into account non-linearities induced by possible gap between the column flange and the end-plate. This model has been developed for a single row connection. In the case of multiple row bolted connection group effects may develop. Possible group effect between two bolt-rows has been implemented considering the model proposed by Cerfontaine based on the definition of the multi-surface yield criterion and the associated flow rule that govern deformation of equivalent springs. Only the case of perfect plasticity is considered. It is shown that the influence of the group effect is not negligible on the nonlinear response of the joint. In the second part, we have developed a flexible co-rotational two-noded beam with generalized elasto-plastic hinges at the beam ends. It is assumed that plastic deformations concentrate at these hinges. These hinges have the ability to elongate/shorten along the beam axis and to rotate. A family of asymmetric and convex yield surfaces of super-elliptic shape is considered for the plastic behavior of the hinges. By varying the roundness factor, an infinite nun1ber of yield surface are obtained. It is shown that the nonlinear response of bolted connections subjected to both bending and tension are conveniently modeled with such a yield surface. It was observed that cyclic loading produces pinching effect, cyclic softening and ductile behavior. Advantages and limitations of the approach are discussed. Finally, the third part is dedicated to the problem of contact at the interface of steel-concrete composite beams. A "new" finite element for composite steelconcrete beam is proposed. The beam element has 6 degrees of freedom per node. The concrete beam is allowed to separate from the steel beam. An efficient contact algorithm is proposed. The Flying node concept is introduced and used to determine the extent of the contact area within a single element and modify the mesh of the beam structure. The contact problem is solve using the Augmented Lagrangian Method. The influence of contact on the loading capacity of the beam and its influence on some design variables are highlighted.
94

Sur les modèles Tweedie multivariés / On multi variate tweedie models

Cuenin, Johann 06 December 2016 (has links)
Après avoir fait un rappel sur les généralités concernant les familles exponentielles naturelles et  les lois Tweedie univariées qui en sont un exemple particulier, nous montrerons comment étendre ces lois au cas multivarié. Une première construction permettra de définir des vecteurs aléatoires Tweedie paramétrés pas un vecteur de moyenne et une matrice de dispersion. Nous montrerons que les corrélations entre les lois marginales peuvent être contrôlées et varient entre -1 et 1. Nous verrons aussi que ces vecteurs ont quelques propriétés communes avec les vecteurs gaussiens. Nous en donnerons une représentation matricielle qui permettra d'en simuler des observations. La seconde construction permettra d'introduire les modèles Tweedie multiples constitués d'une variable Tweedie dont l'observation sera la dispersion des autres marges, toutes de lois Tweedie elles aussi. Nous donnerons la variance généralisée de ces lois et montrerons que cette dernière peut-être estimée efficacement. Enfin, nous verrons que, modulo certaines restrictions, nous pourrons donner une caractérisation par la fonction de variance généralisée des familles exponentielles naturelles générées par ces lois. / After a reminder of the natural exponential families framework and the univariate Tweedie distributions, we build two multivariate extension of the latter. A first construction, called Tweedie random vector, gives a multivariate Tweedie distribution parametrized by a mean vector and a dispersion matrix. We show that the correlations between the margins can be controlled and vary between -1 and 1. Some properties shared with the well-known Gaussian vector are given. By giving a matrix representation, we can simulate observations of Tweedie random vectors. The second construction establishes the multiple stable Tweedie models. They are vectors of which the first component is Tweedie and the others are independant Tweedie, given the first one, and with dispersion parameter given by an observation of the first component. We give the generalized variance and show that it is a product of powered component of the mean and give an efficient estimator of this parameter. Finally, we can show, with some restrictions, that the generalized variance is a tool which can be used for characterizing the natural exponential families generated by multiple stable Tweedie models.
95

Fouille de représentations concises des motifs fréquents à travers les espaces de recherche conjonctif et disjonctif / Mining concise representations of frequent patterns through conjunctive and disjunctive search spaces

Hamrouni, Tarek 04 August 2009 (has links)
Durant ces dernières années, les quantités de données collectées, dans divers domaines d'application de l'informatique, deviennent de plus en plus importantes. Cela suscite le besoin d'analyser et d'interpréter ces données afin d'en extraire des connaissances utiles. Dans cette situation, le processus d'Extraction de Connaissances à partir des Données est un processus complet visant à extraire des connaissances cachées, nouvelles et potentiellement utiles à partir de grands volumes de données. Parmi ces étapes, la fouille de données offre les outils et techniques permettant une telle extraction. Plusieurs travaux de recherche en fouille de données concernent la découverte des règles d'association, permettant d'identifier des liens entre ensembles de descripteurs (ou attributs ou items) décrivant un ensemble d'objets (ou individus ou transactions). Les règles d'association ont montré leur utilité dans plusieurs domaines d'application tels que la gestion de la relation client en grande distribution (analyse du panier de la ménagère pour déterminer les produits souvent achetés simultanément, et agencer les rayons et organiser les promotions en conséquence), la biologie moléculaire (analyse des associations entre gènes), etc. De manière générale, la construction des règles d'association s'effectue en deux étapes : l'extraction des ensembles d'items (ou itemsets) fréquents, puis la génération des règles d'association à partir de des itemsets fréquents. Dans la pratique, le nombre de motifs (itemsets fréquents ou règles d'associations) extraits ou générés, peut être très élevé, ce qui rend difficile leur exploitation pertinente par les utilisateurs. Pour pallier ce problème, certains travaux de recherche proposent l'usage d'un noyau de motifs, appelés représentations concises, à partir desquels les motifs redondants peuvent être régénérés. Le but de telles représentations est de condenser les motifs extraits tout en préservant autant que possible les informations cachées et intéressantes sur des données. Dans la littérature, beaucoup de représentations concises des motifs fréquents ont été proposées, explorant principalement l'espace de recherche conjonctif. Dans cet espace, les itemsets sont caractérisés par la fréquence de leur co-occurrence. Ceci fait l'objet de la première partie de ce travail. Une étude détaillée proposée dans cette thèse prouve que les itemsets fermés et les générateurs minimaux sont un moyen de représenter avec concision les itemsets fréquents et les règles d'association. Les itemsets fermés structurent l'espace de recherche dans des classes d'équivalence tels que chaque classe regroupe les itemsets apparaissant dans le même sous-ensemble (appelé aussi objets ou transactions) des données. Un itemset fermé inclut l'expression la plus spécifique décrivant les transactions associées, alors qu'un générateur minimal inclut une des expressions les plus générales. Cependant, une redondance combinatoire intra-classe résulte logiquement de l'absence inhérente d'un seul générateur minimal associé à un itemset fermé donné. Ceci nous a motivé à effectuer une étude approfondie visant à. maintenir seulement les générateurs minimaux irréductibles dans chaque classe d'équivalence, et d'élaguer les autres. À cet égard, il est proposé une réduction sans perte d'information de l'ensemble des générateurs minimaux grâce à un nouveau processus basé sur la substitution. Une étude complète des propriétés associées aux familles obtenues est présentée. Les résultats théoriques sont ensuite étendus au cadre de règles d'association afin de réduire autant que possible le nombre de règles maintenues sans perte d'information. Puis, est présentée une étude formelle complète du mécanisme d'inférence permettant de dériver toutes les règles d'association redondantes, à partir de celles maintenues. / The last years witnessed an explosive progress in networking, storage, and processing technologies resulting in an unprecedented amount of digitalization of data. There is hence a considerable need for tools or techniques to delve and efflciently discover valuable, non-obvious information from large databases. In this situation, Knowledge Discovery in Databases offers a complete process for the non-trivial extraction of implicit, previously unknown, and potentially useful knowledge from data. Amongst its steps, data mining offers tools and techniques for such an extraction. Much research in data mining from large databases has focused on the discovery of association rules which are used to identify relationships between sets of items in a database. The discovered association rules can be used in various tasks, such as depicting purchase dependencies, classification, medical data analysis, etc. In practice however, the number of frequently occurring itemsets, used as a basis for rule derivation, is very large, hampering their effective exploitation by the end-users. In this situation, a determined effort focused on defining manageably-sized sets of patterns, called concise representations, from which redundant patterns can be regenerated. The purpose of such representations is to reduce the number of mined patterns to make them manageable by the end-users while preserving as much as possible the hidden and interesting information about data. Many concise representations for frequent patterns were so far proposed in the literature, mainly exploring the conjunctive search space. In this space, itemsets are characterized by the frequency of their co-occurrence. A detailed study proposed in this thesis shows that closed itemsets and minimal generators play a key role for concisely representing both frequent itemsets and association rules. These itemsets structure the search space into equivalence classes such that each class gathers the itemsets appearing in the sanie subset (aka objects or transactions) of the given data. A closed itemset includes the most specific expression describing the associated transactions, while a minimal generator includes one of the most general expressions. However, an intra-class combinatorial redundancy would logically results from the inherent absence of a unique minimal generator associated to a given dosed item et. This motivated us to carry out an in-depth study zdming at only retaining irreducible minimal generators in each equivalence class, and pruning the remaining ones. In this respect, we propose lossless reductions of the minimal generator set thanks to a new substitution-based process. We tiien carry out a thorough study of the associated properties of the obtained families. Our tlieoretical results will then be extended to the association rule framework in order to reduce as muchas poib1e the number of retained rules without information loss. We then give a thorough formai study of the related inférence mechanism allowing to derive all redundant association rules, starting from the retained ones. In order to validate our approach, computing means for the new pattern familles are presented together with empirical evidences about their relative sizes w. r. t. the entire sets of patterns. We also lead a thorough exploration of the disjunctive search space, where itemsets are characterized by their respective disjunctive supports, instead of the conjunctive ones. Thus, an itemset verifies a portion of data if at least one of its items belongs to it. Disjunctive itemsets thus convey knowledge about complementary occurrences of items in a dataset. This exploration is motivated by the fact that, in some applications, such information - conveyed through disjunctive support - brings richer knowledge to the end-users.
96

Equations Singulières de type KPZ / Singular KPZ Type Equations

Bruned, Yvain 14 December 2015 (has links)
Dans cette thèse, on s'intéresse à l'existence et à l'unicité d'une solution pour l'équation KPZ généralisée. On utilise la théorie récente des structures de régularité inspirée des chemins rugueux et introduite par Martin Hairer afin de donner sens à ce type d'équations singulières. La procédure de résolution comporte une partie algébrique à travers la définition du groupe de renormalisation et une partie stochastique avec la convergence de processus stochastiques renormalisés. Une des améliorations notoire de ce travail apportée aux structures de régularité est la définition du groupe de renormalisation par le biais d'une algèbre de Hopf sur des arbres labellés. Cette nouvelle construction permet d'obtenir des formules simples pour les processus stochastiques renormalisés. Ensuite, la convergence est obtenue par un traitement efficace de diagrammes de Feynman. / In this thesis, we investigate the existence and the uniqueness of the solution of the generalised KPZ equation. We use the recent theory of regularity structures inspired from the rough path and introduced by Martin Hairer in order to give a meaning to this singular equation. The procedure contains an algebraic part through the renormalisation group and a stochastic part with the computation of renormalised stochastic processes. One major improvement in the theory of the regularity structures is the definition of the renormalisation group using a Hopf algebra on some labelled trees. This new construction paves the way to simple formulas very useful for the renormalised stochastic processes. Then the convergence is obtained by an efficient treatment of some Feynman diagrams.
97

Modélisation des risques souverains et applications / Sovereign risk modelling and applications

Li, Jean-Francois, Shanqiu 17 November 2016 (has links)
La présente thèse traite la modélisation mathématique des risques souverains et ses applications.Dans le premier chapitre, motivé par la crise de la dette souveraine de la zone euro, nous proposons un modèle de risque de défaut souverain. Ce modèle prend en compte aussi bien le mouvement de la solvabilité souveraine que l’impact des événements politiques critiques, en y additionnant un risque de crédit idiosyncratique. Nous nous intéressons aux probabilités que le défaut survienne aux dates d’événements politiques critiques, pour lesquelles nous obtenons des formules analytiques dans un cadre markovien, où nous traitons minutieusement quelques particularités inhabituelles, entre autres le modèle CEV lorsque le paramètre d’élasticité β >1. Nous déterminons de manière explicite le processus compensateur du défaut et montrons que le processus d’intensité n’existe pas, ce qui oppose notre modèle aux approches classiques. Dans le deuxième chapitre, en examinant certains modèles hybrides issus de la littérature, nous considérons une classe de temps aléatoires dont la loi conditionnelle est discontinue et pour lesquels les hypothèses classiques du grossissement de filtrations ne sont pas satisfaites. Nous étendons l’approche de densité à un cadre plus général, où l’hypothèse de Jacod s’assouplit, afin de traiter de tels temps aléatoires dans l’univers du grossissement progressif de filtrations. Nous étudions également des problèmes classiques : le calcul du compensateur, la décomposition de la surmartingale d’Azéma, ainsi que la caractérisation des martingales. La décomposition des martingales et des semi-martingales dans la filtration élargie affirme que l’hypothèse H’ demeure valable dans ce cadre généralisé. Dans le troisième chapitre, nous présentons des applications des modèles proposés dans les chapitres précédents. L’application la plus importante du modèle de défaut souverain et de l’approche de densité généralisée est l’évaluation des titres soumis au risque de défaut. Les résultats expliquent les sauts négatifs importants dans le rendement actuariel de l’obligation à long terme de la Grèce pendant la crise de la dette souveraine. La solvabilité de la Grèce a tendance à s’empirer au fil des années et le rendement de l’obligation a des sauts négatifs lors des événements politiques critiques. En particulier, la taille d’un saut dépend de la gravité d’un choc exogène, du temps écoulé depuis le dernier événement politique, et de la valeur du recouvrement. L’approche de densité généralisée rend aussi possible la modélisation des défauts simultanés qui, bien que rares, ont un impact grave sur le marché. / This dissertation deals with the mathematical modelling of sovereign credit risk and its applications. In Chapter 1, motivated by the European sovereign debt crisis, we propose a hybrid sovereign risk model which takes into account both the movement of the sovereign solvency and the impact of critical political events besides the idiosyncratic credit risk. We are interested in the probability that the default occurs at critical political dates, for which we obtain closed-form formulae in a Markovian setting, where we deal with some unusual features, such as a treatment of the CEV model when the elasticity parameter β > 1. We compute explicitly the compensator process of default and show that the intensity process does not exist. In Chapter 2, by studying certain hybrid models in literature on credit risks, we consider a type of random times whose conditional probability distribution is not continuous and by which standard intensity and density hypotheses in the enlargement of filtrations are not satisfied. We propose a generalised density approach, where the hypothesis of Jacod is relaxed, in order to deal with such random times in the framework of progressive enlargement of filtrations We also study classic problems such as the computation of the compensator process of the random time, the decomposition of the Azéma supermartingale, as well as the martingale characterisation. The martingale and semimartingale decompositions in the enlarged filtration show that the H’-hypothesis holds in this generalised framework. In Chapter 3, we display several applications of the models proposed in the previous chapters. The most important application of the hybrid default model and the generalised density approach is the valuation of default claims. The results explain the significant negative jumps in the long-term Greek government bond yield during the sovereign debt crisis. The solvency of Greece tends to fall gradually through time and the bond yield has negative jumps when critical political events are held. In particular, the size of a jump depends on the seriousness of an exogenous shock, the elapsed time since the last political event, and the value of the recovery payment. The generalised density approach also makes possible the modelling of simultaneous defaults, which are rare but may have an important impact.
98

Modélisation des écoulements réactifs dans les microsystèmes énergétiques / Modelling of the reactive flows in energetic micro systems

Ngomo Otogo, Davy Kévin 16 November 2010 (has links)
La miniaturisation de plus en plus poussée (micro et nano) des systèmes mécanique connaît un important développement depuis une dizaine d'années. Leur conception et réalisation nécessite une connaissance approfondie des écoulements micro-fluidiques. Dans le domaine énergétique, le rendement d'un moteur thermique se dégrade sérieusement lors d'une réduction d'échelle. En effet, les pertes de chaleur pariétales peuvent devenir aussi importantes que l'énergie libérée. Une voie prometteuse consiste à utiliser les ondes de choc / détonation pour accélérer la libération d'énergie. Dans ce cas, la détonation peut être assimilée à une onde de choc inerte, couplée à une zone de réaction, caractérisée par la présence d'instabilités longitudinales et transverses, soumettant ainsi le front de choc à de violentes accélérations / décélérations. L'objectif de la thèse est de mieux appréhender la structure moyenne de la zone de réaction qui s'étend du choc jusqu'à la surface sonique. Sur le plan de la modélisation numérique, les équations de Navier-Stokes compressibles, multi-espèces, réactives sont résolues au sein du solveur CHOC-WAVES développé au CORIA, avec une thermodynamique variables et des coefficients de transport dépendant des espèces. La condition de Chapman-Jouguet généralisée a été élaborée et confirmée par les résultats de simulations numériques dans le cas d'une détonation multidimensionnelle stable. En particulier, il a été montré que les instabilités transverses s'atténuaient avec la réduction d'échelle. A cet effet, un scénario a été proposé pour expliquer le déficit de la vitesse du front de détonation, en se basant sur la structure de la poche subsonique aval, en corrélation avec l'épanouissement de la couche limite. Ce schéma partage de fortes similitudes avec la macro-détonation, tout en gardant des différences. En particulier, il a été montré que la forte vorticité, produite au niveau de la singularité de Prandtl-Meyer, souvent négligée dans les modèles de macro-détonation, diffusait au sein de la poche subsonique. Ces résultats tout à fait originaux ont permis une avancée significative dans la compréhension du mécanisme de propagation des fronts de détonation stables et confinées. / Progress towards the miniaturization of increasingly advanced micro- and nano-electromechanical systems has highlighted the need for a better knowledge of the design of such devices. knowledge of micro-nano pipe flows is still mandatory. In field of energy power generation, as the systems are scaled down, the thermal efficiency of conventional propellant devices is seriously degraded due to significant heat losses which can cause the combustion extinction. A promising approach is to use shock or detonation waves in gazeous media to enhance chemical reaction rates. A detonation is a rapid regime of burning in which a strong shock ignites the fuel and the burning proceeds to equlibrium behind the shock, while the energy released continues to drive the shock. It is also characterized by the presence of longitudinal and transverse instabilities, thereby subjecting the shock front to violent deceleration / acceleration. The objective of this thesis is to better understand the mean structure of the reaction zone that extends from the shock to the sonic surface. As for numerical modelling, the compressible multi-species reactive Navier-Stokes equations are solved using an in-house code "CHOC-WAVES", including variable thermodynamic and transport coefficients depending on the species. The Generalized Chapman-Jouguet condition was developed and corroborated by the numerical results in the case of stable multidimensionnal detonation. More specially, it was shown that the transverse instabilities are attenuated with the scale reduction.To this end, a scenarion, based on the structure of downstream subsonic pocket, which is correlated to the development of the boundary layer, has been proposed to explain the deificit of the detonation from velocity. This scheme shares many similarities with the macro-detonation, while keeping some differences. In particular, it was shown that the strong vorticity, generated at the Prandlt-Meyersingularity and often neglected in macro-detonation models, diffuses in the subsonic pocket. The present contribution enables us to shade more physical insight for the propagation of stable and confined detonation fronts.
99

Sous-structures de Hodge, anneaux de Chow et action de certains automorphismes

Fu, Lie 03 October 2013 (has links) (PDF)
Cette thèse se compose de trois chapitres. Dans Chapitre 1, en supposant la conjecture standard de Lefschetz, on démontre la conjecture de Hodge généralisée pour une sous-structure de Hodge de convieau 1 qui est le noyau du cup-produit avec une classe de cohomologie grosse. Dans Chapitre 2, nous établissons une décomposition de la petite diagonale de X × X × X pour une intersection complète de type Calabi-Yau X dans un espace projectif. Comme une conséquence, on déduit une propriété de dégénérescence pour le produit d'intersection dans son anneau de Chow des deux cycles algébriques de dimensions complémentaires et strictement positives. Dans Chapitre 3, on démontre qu'un automorphisme symplectique polarisé de la variété des droites d'une hypersurface cubique de dimension 4 agit trivialement sur son groupe de Chow des 0-cycles, comme prédit par la conjecture de Bloch généralisée.
100

Développement d'un outil statistique pour évaluer les charges maximales subies par l'isolation d'une cuve de méthanier au cours de sa période d'exploitation / Development of a statistical tool to determine sloshing loads to be applied on cargo containment system of a LNG carrier for structural strength assessment

Fillon, Blandine 19 December 2014 (has links)
Ce travail de thèse porte sur les outils statistiques pour l'évaluation des maxima de charges de sloshing dans les cuves de méthaniers. Selon les caractéristiques du navire, son chargement et les conditions de navigation, un ballotement hydrodynamique est observé à l'intérieur des cuves, phénomène communément appelé sloshing. La détermination des charges qui s'appliquent à la structure est basée sur des mesures de pression d'impact au moyen d'essais sur maquette. Les maxima de pression par impact, extraits des mesures, sont étudiés. La durée d'un essai est équivalente à 5 heures au réel et insuffisante pour déterminer des maxima de pression associés à de grandes périodes de retour (40 ans). Un modèle probabiliste est nécessaire pour extrapoler les maxima de pression. Le modèle usuel est une loi de Weibull. Comme ce sont les valeurs extrêmes des échantillons qui nous intéressent, les ajustements sont aussi effectués par les lois des valeurs extrêmes et de Pareto généralisées via les méthodes de maximum par bloc et d'excès au-dessus d'un seuil.L'originalité du travail repose sur l'emploi d'un système alternatif, plus pertinent pour la capture des maxima de pression et d'une quantité de 480 heures de mesures disponible pour les mêmes conditions d'essai. Cela fournit une distribution de référence pour les maxima de pression et nous permet d'évaluer la pertinence des modèles sélectionnés. Nous insistons sur l'importance d'évaluer la qualité des ajustements par des tests statistiques et de quantifier les incertitudes sur les estimations obtenues. La méthodologie fournie a été implémentée dans un logiciel nommé Stat_R qui facilite la manipulation et le traitement des résultats. / This thesis focuses on statistical tools for the assessment of maxima sloshing loads in LNG tanks. According to ship features, tank cargo and sailing conditions, a sloshing phenomenon is observed inside LNG tanks. The determination of sloshing loads supported by the tank structure is derived from impact pressure measurements performed on a test rig. Pressure maxima per impact, extracted from test measurements, are investigated. Test duration is equivalent to 5 hours in full scale. This duration is not sufficient to determine pressure maxima associated with high return periods (40 years). It is necessary to use a probabilistic model in order to extrapolate pressure maxima. Usually, a Weibull model is used. As we focus on extreme values from samples, fittings are also performed with the generalized extreme value distribution and the generalized Pareto distribution using block maximum method and peaks over threshold method.The originality of this work is based on the use of an alternate measurement system which is more relevant than usual measurement system to get pressure maxima and a 480 hours measured data available for same test conditions. This provides a reference distribution for pressure maxima which is used to assess the relevance of the selected probabilistic models. Particular attention is paid to the assessment of fittings quality using statistical tests and to the quantification of uncertainties on estimated values.The provided methodology has been implemented in a software called Stat_R which makes the manipulation and the treatment of results easier.

Page generated in 0.0488 seconds