• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Étude comparative de la vitalité des cégeps du croissant périnordique québécois

Bézy, Simon 05 1900 (has links)
Cette étude porte sur la vitalité des institutions collégiales situées dans trois régions administratives : Abitibi-Témiscamingue, Côte-Nord et Gaspésie –Îles de-la-Madeleine. Ces régions sont et seront aux prises avec une conjoncture démographique défavorable qui risque fort de miner leurs effectifs étudiants déjà bien faibles. Parmi celles-ci, nous cherchons à connaître les régions administratives ainsi que les institutions collégiales les plus à risque de subir des compressions ou de faire appel à des subventions gouvernementales spéciales afin de demeurer viables. Ce questionnement est dédoublé d’une considération méthodologique : comment pouvons-nous quantifier ce rapport de force entre les institutions? Afin de répondre aux exigences de cette question de recherche, un indicateur composite a été construit à l'aide de la sommation de nombreux indices regroupant cinq dimensions jugées essentielles à une telle étude : la vitalité démographique des institutions, la force de rétention du bassin étudiant interne, la force d’attraction exercée sur le bassin étudiant externe, la vulnérabilité financière ainsi que la vitalité de l'offre de formation. En vertu des résultats de l’indicateur composite, les régions se classent selon l’ordre suivants : l’Abitibi Témiscamingue, la Côte-Nord, la Gaspésie – Îles de la Madeleine. Pour les institutions collégiales, on distingue trois sous-groupes, le premier composé du Cégep de Sept-Îles et des campus de Gaspé et de Rouyn-Noranda, le deuxième, du Cégep de Baie- Comeau et du campus de Val-d’Or et le troisième, des Centres d’études collégiales des Îles et de Baie-des-Chaleurs ainsi que du campus d'Amos. / This study concerns the vitality of the college institutions situated in three administrative regions: Abitibi-Témiscamingue, Côte-Nord and Gaspésie –Îles de la Madeleine. These regions are and will be battling against an unfavourable demographic situation which risks to undermine their already very low student level. Among these, we are trying to know the administrative regions as well as the college institutions that are the most at risk of undergoing compressions or of appealing to special governmental subsidies to remain viable. This questioning added a methodological consideration: how can we quantify this balance of power between institutions? To answer the requirements of this question of research, a composite indicator was built by means of the summation of numerous indicators grouping together five dimensions considered essential in such a study: the demographic vitality of institutions, the strength of retention of the internal student basin, the strength of attraction exercised on the external basin studying, the financial vulnerability as well as the vitality of the offer of formation. By virtue of the results of the composite indicator, regions are classified in the following order: Abitibi-Témiscamingue, Côte-Nord, Gaspésie – Îles de la Madeleine. For the college institutions, we distinguish three subgroups, the first one consist of the Cégep of Sept-Îles and the campus of Gaspé and Rouyn Noranda, the second, of the Cégep de Baie Comeau and the campus of Val-d'Or and the third, of the Centres d’études collégiales des Îles et de Baie-des-Chaleurs as well as Amos's campus.
192

Simulation et prévision des étiages sur des bassins versants français : Approche fondée sur la modélisation hydrologique

Pushpalatha, Raji 18 January 2013 (has links) (PDF)
La prévision d'étiage à long terme est l'une des questions émergentes en hydrologie en raison de la demande croissante en eau en période sèche. Des prévisions fiables de débits à longue échéance (quelques semaines à quelques mois à l'avance) peuvent améliorer la gestion des ressources en eau et de ce fait l'économie de la société et les conditions de vie aquatique. Les études limitées sur les étiages dans la littérature nous a conduit à traiter certaines des questions existantes sur l'hydrologie des étiages, principalement sur la simulation et la prévision des étiages. Notre objectif final de développer une approche d'ensemble pour la prévision à long terme des étiages se décline en plusieurs étapes préalables, telles que la caractérisation des étiages, l'évaluation de mesures existantes d'efficacité des simulations des modèles, le développement d'une version améliorée d'un modèle de simulation des étiages, et enfin l'intégration d'une approche de prévision d'ensemble. Un ensemble de bassins distribués partout en France avec une variété de conditions hydro-météorologiques a été utilisé pour l'évaluation des modèles. Cet échantillon de données a d'abord été analysé et les étiages ont été caractérisés en utilisant divers indices. Notre objectif de mieux évaluer les simulations des étiages par les modèles a conduit à proposer un critère basé sur le critère de Nash-Sutcliffe, calculé sur l'inverse des débits pour mettre davantage de poids sur les erreurs sur les très faibles débits. Les résultats montrent que ce critère est mieux adapté à l'évaluation des simulations des étiages que d'autres critères couramment utilisés..Une analyse de sensibilité structurelle a ensuite été menée pour développer une structure de modèle améliorée pour simuler les étiages. Des modèles couramment utilisés ont été choisis ici comme modèles de base pour commencer l'analyse de sensibilité. Le modèle développé, GR6J, atteint de meilleures performances à la fois sur les faibles et les hauts débits par rapport aux autres modèles existants testés. En raison de la complexité du processus pluie-débit et de l'incertitude liée aux conditions météorologiques futures, nous avons développé une approche d'ensemble pour émettre des prévisions et quantifier les incertitudes associées. Ainsi l'approche d'ensemble fournit une gamme de valeurs futures de débits sur la plage de prévision. Ici, la climatologie a été utilisée pour fournir les scénarios météorologiques en entrée du modèle pour réaliser les prévisions. Pour réduire le niveau d'incertitude lié au modèle hydrologique, des combinaisons variées de procédures de mise à jour et de corrections de sortie ont été testées. Une approche directe, similaire à ce qui peut être fait pour la prévision des crues, a été sélectionnée comme la plus efficace. Enfin, des essais ont été réalisés pour améliorer la qualité des prévisions sur les bassins influencés par les barrages, en tenant compte des variations de stockage dans les barrages amont. Testée sur les bassins de la Seine et de la Loire, l'approche a donné des résultats mitigés, indiquant le besoin d'analyses complémentaires.
193

Méthodes de prévision d'ensemble pour l'étude de la prévisibilité à l'échelle convective des épisodes de pluies intenses en Méditerranée

Vié, Benoît, Vié, Benoît 29 November 2012 (has links) (PDF)
L'évaluation de l'incertitude associée à la prévision numérique du temps à haute résolution, et en particulier l'estimation de la prévisibilité des événements de fortes précipitations en région méditerranéenne, sont les objectifs de ce travail de thèse. Nous avons procédé à l'étude de quatre sources d'incertitude contrôlant la prévisibilité de ces événements : la description des conditions d'échelle synoptique, la représentation des conditions atmosphériques à méso-échelle (notamment le flux de basses couches alimentant le système convectif), le rôle de processus physiques complexes tels que l'établissement d'une plage froide sous orage, et enfin la définition des conditions de surface. Pour quantifier l'impact de ces différentes sources d'incertitude, nous avons opté pour la méthode des prévisions d'ensemble avec le modèle AROME. Chaque source d'incertitude est étudiée individuellement à travers la génération de perturbations pertinentes, et les ensembles ainsi obtenus sont évalués dans un premier temps pour des cas de fortes précipitations. Nous avons aussi procédé à une évaluation statistique du comportement des prévisions d'ensemble réalisées sur des périodes de prévision longues de deux à quatre semaines. Cette évaluation, ainsi que celle de systèmes de prévision d'ensemble échantillonnant plusieurs sources d'incertitude simultanément, permettent d'établir une hiérarchisation de ces sources d'incertitude et enfin quelques recommandations en vue de la mise en place d'un système de prévision d'ensemble à échelle convective opérationnel à Météo-France
194

Impact des missions altimétriques et des réseaux de mesure in situ actuels et futurs sur l'analyse et la prévision océanique / Impact of future and current altimetry and in situ networks on the oceanic analysis and forecasts

Verrier, Simon 20 March 2017 (has links)
Deux séries d'OSSEs (Observing System Simulation Experiments) sont menées avec deux systèmes globaux d'assimilation de données au 1/4° et au 1/12°, utilisant des observations altimétriques (satellites) et in situ (flotteurs Argo) simulées à partir d'une simulation libre au 1/12°. Les objectifs sont d'évaluer la capacité des différents jeux d'observations à contraindre un système global d'assimilation de données. L'impact positif de plusieurs satellites est clairement identifié autant sur le niveau de la mer et les courants de surface. L'ajout des flotteurs Argo améliore significativement les champs de température et démontre le rôle essentiel de la flotte Argo associée à l'altimétrie afin de contraindre un système d'assimilation global. Ces résultats issus d'OSSEs sont cohérents avec des résultats obtenus à partir de données réelles (OSEs - Observing System Evaluations) tout en permettant une meilleure description des erreurs faites sur les analyses et les prévisions. / Two series of Observing System Simulation Experiments (OSSEs) are carried out with global data assimilation systems at 1/4° and 1/12° resolution using simulated altimetry (satellite) and in situ (Argo float) data derived from a 1/12° resolution free run simulation. The objectives are to quantify how well different data sets can constrain a global data assimilation system. The positive impact of multiple altimeter data is clearly evidenced on sea level and ocean currents. The addition of Argo has a major impact to improve temperature and demonstrates the essential role of Argo together with altimetry to constrain a global data assimilation system. Results derived from these OSSEs are consistent with those derived from experiments with real data (observing system evaluations/OSEs) but they allow a more detailed characterization of errors on analyses and forecasts.
195

The seismic activity associated with the large 2010 eruption of Merapi volcano, Java : source location, velocity variation, and forecasting / L'activité sismique associée à la grande éruption de 2010 du volcan Merapi, Java : localisation de sources, variation de vitesse, et prévision d'éruption

Budi Santoso, Agus 31 March 2014 (has links)
L'éruption de 2010 du Merapi est la première grande éruption explosive du volcan qui a été observée instrumentalement. Dans ce travail, nous étudions les précurseurs de l'éruption et le comportement du volcan avant l'éruption en reliant les caractéristiques sismiques avec d'autres observations disponibles. Nous présentons les principaux aspects de l'activité sismique au cours de la crise de 2010, tels que la chronologie de la sismicité, l'évolution spatio-temporelle des positions de source de séisme et les changements de vitesse sismique. En effectuant des localisations absolues et relatives, nous obtenons des preuves de l'existence de zones asismiques, concordant avec des études antérieures, que nous interprétons comme des zones plus ductiles. La migration du magma de la partie profonde à la partie superficielle du conduit à travers la zone asismique supérieure est mise en évidence par un déplacement vers le haut des hypocentres. Nous analysons l'énergie sismique quantifiée par le RSAM calculé pour plusieurs bandes de fréquences. Ces fonctions affichent des accélérations claires dans les dernières semaines avant l'éruption. Ce comportement est utilisé pour effectuer des prévisions d'éruption volcanique rétrospective avec la méthode « Material Failure Forecast » ou FFM. Le début de la première éruption est estimé avec une bonne précision. Nous proposons une méthode originale de détection d'événement basée sur un rapport d'énergie. En utilisant cette méthode et la corrélation de la forme d'onde, nous identifions 10 familles de séismes similaires. Ces multiplets sismiques sont situés en dessous ou au -dessus de la zone asismique supérieure et sont composés soit d'événements volcano-tectoniques soit d'événements basse fréquence. Certains de ces groupes ont été actifs pendant plusieurs mois avant la crise éruptive alors qu'une famille qui comprend 119 événements répétitifs est apparue 20 heures avant le début de l'éruption. Nous estimons des variations de vitesse sismique, liées principalement à l'activité magmatique, en utilisant la coda des multiplets et les fonctions d'intercorrélation du bruit sismique. Ces variations montrent une forte variabilité spatiale et temporelle de leur amplitude et de leur signe. Bien qu'elles ne puissent pas être décrites par une simple tendance unique, ces variations de vitesse peuvent être considérées comme un précurseur de l'éruption. En utilisant les résultats précédents ainsi que d'autres observations, nous déterminons les particularités associées à la grande éruption explosive de 2010. En outre, nous proposons un scénario chronologique de l'activité pré- éruptive du Merapi. / The 2010 eruption of Merapi is the first large explosive eruption of the volcano that has been instrumentally observed. In this work, we study the eruption precursors and the pre-eruptive volcano behaviour by linking seismic features with other available observations. The main characteristics of the seismic activity during the 2010 crisis, including the chronology of seismicity, the spatio-temporal evolution of earthquake source positions and the seismic velocity changes, are presented. By performing absolute and relative locations, we obtain evidences of aseismic zones which are consistent with earlier studies and are interpreted as more ductile zones. Magma migration from the deep to the shallow part of the conduit through the upper aseismic zone is revealed by an upward shift of the hypocenters. We analyse the seismic energy quantified by RSAM calculated for several frequency bands. These functions display clear accelerations in the last few weeks before the eruption. This behaviour is used to perform hindsight eruption forecasting with the Material Failure Forecast method (FFM). The onset of the first eruption is estimated with a good precision. We propose an original method of event detection based on energy ratio. Using this method and waveform correlation, we identify 10 families of similar earthquakes. The seismic multiplets are located either below or above the upper aseismic zone and are composed of either volcano-tectonic or low-frequency events. Some of the clusters were active during several months before the eruptive crisis while a family that includes 119 repeating events appeared 20 hours before the eruption onset. Seismic velocity variations associated mainly with magmatic activity are estimated using the coda of both multiplets and noise cross correlation functions. These variations display strong temporal and spatial variability of their amplitude and sign. Although they cannot be described by a unique simple trend, these velocity variations can be considered as an eruption precursor. Using the preceding results together with other observations, we determine the specific features associated with the large explosive eruption of 2010. Furthermore, we propose a chronological scenario of the pre-eruptive activity of Merapi 2010 unrest.
196

Couplage aérosols-microphysique pour la simulation des cyclones tropicaux : Cas du cyclone Dumile (2013) / Aerosols-microphysics coupling for tropical cyclone modelling : Tropical cyclone Dumile (2013) case study

Hoarau, Thomas 15 May 2018 (has links)
La prévision de l'intensité des cyclones tropicaux est aujourd'hui un enjeu scientifique majeur. Parmi de nombreux facteurs multi-échelle, l'impact de la microphysique nuageuse et des aérosols sur les variations d'intensité a été récemment mis en évidence. Cette problématique a motivé l'évaluation du schéma microphysique à 2-moments LIMA en milieu tropical et le développement d'un couplage avec le schéma d'aérosols ORILAM au sein du modèle atmosphérique Meso-NH. L'intérêt de ce développement numérique est d'inclure l'émission des aérosols marins en fonction des vents cycloniques et des paramètres océaniques. L'application de ce couplage aérosols-microphysique à la simulation du cyclone tropical Dumile (2013) montre que le modèle couplé tend à améliorer la représentation de l'intensité, la trajectoire, la structure microphysique du cyclone tropical et les précipitations associées, en comparaison avec les observations. La production secondaire des cristaux de glace est également un thème de recherche actif en microphysique nuageuse. Ainsi, une paramétrisation du processus de rupture collisionnelle de la glace a été implémentée dans le schéma microphysique LIMA. L'impact de ce processus a été testé sur le développement d'un orage des moyennes latitudes et sur le cyclone tropical Dumile. Les deux cas d'étude ont des réponses similaires vis-à-vis de ce processus : une augmentation de la concentration et de la masse des cristaux de glace et une diminution des cumuls de précipitations. La poursuite de ces travaux pourrait permettre de déterminer si ce processus de formation secondaire peut améliorer la modélisation de la couverture cirriforme des cyclones tropicaux. / Intensity forecast of tropical cyclones is a major scientific issue. Among many factors, the impact of cloud microphysics and aerosols on intensity variations has been recently underlined. This issue motivated the evaluation of the 2-moment microphysical scheme LIMA in a tropical context and the development of a coupling with the aerosol scheme ORILAM into the atmospheric model Meso-NH. The interest of this numerical development is to represent the emission of sea salt aerosols depending on cyclonic winds and oceanic parameters. The application of this aerosols-microphysics coupling to the simulation of tropical cyclone Dumile (2013) shows that the coupled model tends to improve the representation of the intensity, the track, the microphysical structure of the tropical cyclone and the associated precipitation, when comparing with observations. The secondary production of ice crystals is also an active research topic in cloud microphysics. A parameterization of the collisional ice break-up process is thus implemented into the microphysical scheme LIMA. The impact of this process has been analyzed on a mid-latitude storm and on tropical cyclone Dumile. Both case studies display similar results regarding this process: an increase of ice crystals concentration and mass, and a decrease of precipitation. The continuation of this work could allow to determine if this process of secondary formation could improve the cirrus modelling in tropical cyclones.
197

Simulation numérique du chargement mécanique en paroi généré par les écoulements cavitants, pour application à l'usure par cavitation des pompes centrifuges / Numerical simulation of a mechanical load on a wall resulting from cavitating flows, with application to centrifugal pumps cavitation wear

Leclercq, Christophe 13 December 2017 (has links)
Lors du fonctionnement des machines hydrauliques, le développement de structures de cavitation peut entraîner une chute de performance. De plus, la cavitation peut être responsable de l'usure des pièces mécaniques par érosion. La taille et la vitesse de rotation des pompes étant fortement dépendantes du niveau de cavitation acceptable, la présence de cavitation dans une installation hydraulique est liée à un compromis technico-économique. La prévision de l'érosion de cavitation serait utile à la fois pour améliorer la conception des matériels en projet mais également pour optimiser les périodes de maintenance de ceux existants. Bien que des essais, permettant de caractériser le comportement à l'érosion d'une machine, soient possibles, ceux-ci restent coûteux. Bénéficiant des progrès de la simulation des écoulements, une prévision par voie numérique de l'érosion de cavitation parait accessible.L'érosion est un phénomène multi-physique et multi-échelle. Multi-physique car elle fait intervenir la mécanique des fluides et la réponse du solide ; multi-échelle car les échelles en temps et en espace vont de celles caractérisant l'écoulement autour du composant hydraulique (0.1 m - 1 ms) jusqu'à celles de la déformation plastique observée sur le matériau (1 µm - 10 ns) . Dans cette thèse, seule la partie fluide est considérée, plus particulièrement, le chargement d'un écoulement cavitant sur une paroi solide, appelé "intensité de cavitation". L'objectif est d'estimer cette intensité à partir de la simulation d'un écoulement cavitant.Des écoulements instationnaires 3D en régime cavitant sont simulés en utilisant un modèle homogène, implémenté dans le Code_Saturne cavitant. Une description du modèle numérique et de l'approche physique considérée est présentée dans le mémoire. Le modèle de prédiction de l'endommagement, basé sur une approche énergétique, est développé et appliqué sur un hydrofoil NACA 65012 testé au LMH-EPFL (École Polytechnique Fédérale de Lausanne) et sur la pompe centrifuge SHF testée au sein d'EDF R&D. Des comparaisons entre des simulations 3D sur différents maillages sont analysées et une bonne estimation qualitative de l'érosion est obtenue via ce modèle à différentes vitesses d'écoulement. Une tentative de validation quantitative pour le cas de l'hydrofoil est mise en place et semble prometteuse.Dans le but d'enrichir le modèle de prévision de l'intensité de cavitation, des simulations à l'échelle d'une bulle sont également menées. Ces simulations permettent une meilleure compréhension des interactions entre une onde incidente et l'implosion d'une bulle en proche paroi. Des phénomènes d'amplification des collapsus de bulles ont pu être simulés, pouvant être à l'origine de fortes ondes de pression dont l'impact serait responsable de l'endommagement des matériaux avoisinants. / The development of cavitation structures can lead to efficiency losses during hydraulic machinery duty. Moreover, cavitation can be responsible for wear of mechanical parts through cavitation erosion. The presence of cavitation in a hydraulic machine is also linked to a technical and economical trade-off, because the size and rotational speed of pumps are highly dependent on the acceptable cavitation level. Therefore, it seems likely that cavitation will remain present in current and future pump designs and its consequences must be dealt with. The prediction of the erosion is important both for the improvement of hydraulic components at the design stage but also for the optimization of maintenance periods of existing machinery. Experimental tests can be carried out to characterize the erosion behaviour of a machine, but are still expensive. With the recent advances in Computational Fluid Dynamics, the numerical prediction of cavitation erosion appears as a reachable and cost-effective alternative.The erosion is a multi-physical and multi-scale phenomenon. Multi-physical because it deals with both fluid and solid mechanics and multi-scale because the length and time scales of the flow around the hydraulic component (0.1 m - 1 ms) and of the plastic deformation observed on the material (1 µm - 10 ns) are not of the same order of magnitude. In this thesis, only the fluid part is considered, more particularly, the mechanical load imposed by a cavitating flow on a material, called "cavitation intensity". The objective is to estimate this intensity from cavitating flow simulations.In this work, 3D unsteady simulations of cavitation regimes are carried out using a homogeneous model, implemented in the CFD code Code_Saturne cavitant. The prediction damage model, based on an energy approach, is developed and applied to a NACA 65012 hydrofoil tested at the LMH-EPFL (École Polytechnique Fédérale de Lausanne) and on the SHF centrifugal pump tested at EDF R&D. Comparisons between 3D simulations on different meshes show that the model provides good qualitative predictions of erosion at different flow velocities. An attempt is made to propose a quantitative validation for the case of the hydrofoil, with promising results.In order to enrich the cavitation intensity prediction model, simulations at the bubble scale are also performed. These simulations allow for a better understanding of the interaction between an incident pressure wave and the implosion of a near-wall bubble. The mechanism of bubble collapse amplification is simulated, and is shown to be associated with high magnitude pressure waves. This amplification phenomenon is suspected to be a strong contributor to the damage of neighbouring materials.
198

Combining structural and reduced-form models for macroeconomic forecasting and policy analysis

Monti, Francesca 08 February 2011 (has links)
Can we fruitfully use the same macroeconomic model to forecast and to perform policy analysis? There is a tension between a model’s ability to forecast accurately and its ability to tell a theoretically consistent story. The aim of this dissertation is to propose ways to soothe this tension, combining structural and reduced-form models in order to have models that can effectively do both. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
199

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime / Ensemblist data assimilation and 1D-2D hydraulic model coupling for real-time flood forecasting. Application to the "Adour maritime" hydraulic network

Barthélémy, Sébastien 12 May 2015 (has links)
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D. / Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014.
200

Statistical lifetime modeling of FeNiCr alloys for high temperature corrosion in waste to energy plants and metal dusting in syngas production plants / Modélisation statistique de la durée de vie des alliages Fe-Ni-Cr soumis à la corrosion à haute température en environnement UVEOM et metal dusting en installations Syngas

Camperos Guevara, Sheyla Herminia 20 January 2016 (has links)
Au cours des dernières décennies, le contrôle de la corrosion des alliages exposés à des conditions sévères et complexes a été un grand défi pour les applications industrielles. Les coûts de la corrosion sont élevés et les stratégies de prévention sont devenues une demande industrielle importante. Le projet SCAPAC financé par l’ANR, a proposé d’étudier la corrosion lors de deux procédés industriels: le vapo-réformage du méthane et l’incinération des déchets ménagers. Bien que les conditions de fonctionnement de ces deux procédés soient différentes, les approches de modélisation peuvent être similaires. Dans le procédé de vapo-réformage du méthane, les composants métalliques sont soumis à la corrosion par « metal dusting », qui est une forme d’endommagement catastrophique qui affecte les alliages exposés à des températures élevées (400-800 °C) et des atmosphères sursaturées en carbone. De même, les composants métalliques des incinérateurs de déchets qui sont exposés à des atmosphères de combustion sont soumis à la corrosion à haute température sous dépôts de cendres. Le « metal dusting » est un phénomène critique qui a mené à des pertes matérielles importantes et à l’arrêt d’installations industrielles pendant les 50 dernières années. Les mécanismes de cette dégradation ont été identifiés et sont disponibles dans la littérature. Cependant, l'effet de certains paramètres des procédés ne sont pas encore bien compris et nécessitent des compléments d'études. En ce qui concerne la corrosion à haute température, les mécanismes sont bien documentés et une quantité considérable de travaux ont été publiés au cours des dernières décennies. De nombreux matériaux et revêtements ont été développés. Cependant, la performance des matériaux dans des environnements différents n'est pas assez bien comprise pour créer des modèles de prédiction de durée de vie. Une revue bibliographique de ces deux domaines a révélé qu’il existait des approches de modélisation. Néanmoins, il n'y a pas actuellement de modèle prédictifs fiables de durée de vie qui soit disponible dans la littérature pour les alliages commerciaux, et pour une gamme étendue de conditions expérimentales. La présente étude présente une méthodologie pour développer des modèles statistiques de prévision de durée de vie. Il s’agit d’évaluer la performance de matériaux soumis au « metal dusting » et à la corrosion à haute température sous dépôt. Deux bases de données ont été construites pour intégrer les résultats expérimentaux du projet SCAPAC, aussi bien que résultats de la littérature. Ceci afin d’avoir suffisant des données pour la modélisation. Ces bases de données ont permis d'analyser plus de 4000 vitesses de corrosion à l’aide de méthodes statistiques appliquées à différents scénarios. La méthodologie de l’Analyse des Composantes Principales (ACP) a été utilisée pour identifier les paramètres clés des mécanismes de corrosion, qui ont été ensuite utilisés pour construire des modèles de prédiction de durée de vie par Régression Linéaire Multiple (RLM). Pour la corrosion à haute température, trois modèles ont été obtenus dans le scénario de gradient thermique pour trois familles d'alliages: des aciers ferritiques, des alliages austénitiques à base de fer et nickel et des alliages à base de nickel, en montrant des résultats encourageants. Pour la corrosion par « metal dusting », deux modèles ont été obtenus pour expliquer le temps d'incubation et la cinétique croissance de profondeur de piqures, avec des résultats satisfaisants. Les modèles statistiques dans les deux cas ont été comparés avec deux résultats expérimentaux et théoriques montrant un bon accord, qui permet l'évaluation de la durée de vie des matériaux dans les conditions définies. / Over the last decades, the corrosion control of alloys exposed to severe and complex conditions in industrial applications has been a great challenge. Currently, corrosion costs are increasing and preventive strategies have become an important industrial demand. The SCAPAC project funded by the French National Research Agency has proposed to study the corrosion for two separate processes: Steam Methane Reforming (SMR) and Waste to Energy (WtE). Although the operating conditions of both processes are different, the modeling approaches can be similar. Metallic components in the SMR process are subjected to metal dusting corrosion, which is a catastrophic form of damage that affects alloys exposed to highly carburising gases (aC>1) at high temperatures (400–800 °C).[1]. Likewise, metallic components in the Waste to Energy (WtE) process are subjected to high temperature corrosion under deposit that takes place in equipment exposed to atmospheres with high content of corrosive products of combustion. Metal dusting corrosion is considered as a critical phenomenon that has led to worldwide material loss for 50 years. A basic understanding of the degradation mechanisms is available. However, the effect of some process parameters is still not well understood in current literature and requires further study. Otherwise for high temperature corrosion, a considerable amount of literature has been published over the last few decades and the mechanisms are well documented. Also many materials and coatings have been developed. However, the material performance in different environments has not been sufficiently well understood to define suitable criteria for lifetime prediction models regarding operating conditions, due to the high complexity of the corrosion phenomena involved. Literature research in both fields revealed modeling approaches in different kinds of complex conditions and applications. Nevertheless, there are no lifetime models currently available in the open literature for commercial materials that consider a wide range of conditions and the relative weight of the variables involved in the corrosion processes. This dissertation presents a methodology to develop lifetime prediction models to evaluate materials performance under metal dusting and high-temperature corrosion conditions. Two databases were created to integrate experimental results from the SCAPAC project, as well as results from literature to enable sufficient amount of data for modeling. The databases allowed analyzing approximately 4000 corrosion rates by different statistical methods over different scenarios. The Principal Component Analysis (PCA) methodology was performed to identify the key parameters to create lifetime prediction models using Multiple Linear Regressions (MLR). For high-temperature corrosion, three models were obtained in the thermal gradient scenario for three families of alloys: low alloyed steels, Fe/Ni-based high temperature alloys and Ni-based alloys, showing agreeable results. For metal dusting corrosion, two models were obtained to explain the incubation times and the kinetic of pit depth growing, showing satisfactory results. The statistical models in both cases were compared with experimental and theoretical results showing good agreement with experimental findings, which allows performing the lifetime assessment of materials under defined conditions.

Page generated in 0.0648 seconds