• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Modelisation directe et inverse d'ecoulements geophysiques viscoplastiques par methodes variationnelles : Application a la glaciologie / Direct and inverse modeling of viscoplastic geophysical flows using variational methods : Application to glaciology

Martin, Nathan 10 July 2013 (has links)
Un certain nombre d’écoulements géophysiques, tels que les écoulements de glace ou de lave magmatique, impliquent le mouvement gravitaire à faible nombre de Reynolds d’un fluide viscoplastique à surface libre sur un socle rocheux. Leur modélisation fait apparaître des lois de comportement rhéologique et des descriptions de leurs intéractions avec le socle rocheux qui reposent sur des paramétrisations empiriques. Par ailleurs, l’observation systématique de ce type d’écoulements avec une grande précision est rarement possible ; les données associées à l’observation de ces écoulements, principalement des données de surface (télédétections), peuvent être peu denses, manquantes ou incertaines. Elles sont aussi le plus souvent indirectes : des paramètres inconnus comme le glissement basal ou la rhéologie sont difficilement mesurables in situ.Ce travail de thèse s’attache à la modélisation directe et inverse de ces écoulements géophysiques, particulièrement les écoulements de glace, par des méthodes variationnelles à travers la résolution du problème de Stokes pour les fluides en loi de puissance.La méthode de résolution du problème direct (Stokes non-linéaire) repose sur le principe du minimum de dissipation qui mène à un problème variationnel de type point-selle à quatre champs pour lequel on montre l’existence de solutions. La condition d’incompressibilité et la loi de comportement représentent alors des contraintes associées au problème de minimisation. La recherche des points critiques du lagrangien correspondant est réalisée à l’aide d’un algorithme de type lagrangien augmenté, discrétisé par éléments finis triangles à trois champs. Cet algorithme conduit à un important gain tant en temps de calcul qu’en utilisation mémoire par rapport aux algorithmes classiques.On s’intéresse ensuite à la modélisation numérique inverse de ces fluides à l’aide du modèle adjoint et des deux principaux outils associés : l’analyse de sensibilité et l’assimilation de données. On étudie tout d’abord la modélisation rhéologique de ces fluides à travers les deux paramètres principaux de la loi de comportement : la consistance du fluide et l’exposant rhéologique. Des analyses de sensibilité sur ces paramètres définis localement, permettent de quantifier leurs poids relatifs au sein du modèle d’écoulement, en termes de vitesses de surface. L’identification de ces grandeurs est également réalisée. L’ensemble des résultats est résumé comme une méthodologie vers une “rhéométrie virtuelle” pouvant représenter une aide solide à la mesure rhéologique.Le glissement basal, paramètre majeur dans la dynamique de la glace, est investigué selon la même approche. Les analyses de sensibilité mettent en avant une capacité à voir à travers le caractère “filtré” et non-local de la transmission de la variabilité basale vers la surface, ouvrant des perspectives vers l’utilisation des sensibilités pour la définition de lieux d’intérêt pour l’observation et la mesure. Ce glissement basal, modélisation empirique d’un processus complexe et multiéchelle, est ensuite utilisé pour la comparaison avec une méthode inverse approximative courante en glaciologie (méthode négligeant la dépendance de la viscosité à la vitesse, i.e. la non-linéarité). Le modèle adjoint, obtenu par différentiation automatique et évalué par accumulation retour, permet de définir cette approximation comme un cas limite de la méthode inverse complète. Ce formalisme mène à une généralisation du processus d’évaluation numérique de l’état adjoint, ajustable en précision et en temps de calcul en fonction de la qualité des données et du niveau de détail souhaité dans la reconstruction.L’ensemble de ces travaux est associé au développement du logiciel DassFlow-Ice de simulation directe et inverse de fluides viscoplastiques à surface libre. Ce logiciel prospectif bidimensionnel, diffusé dans la communauté glaciologique, a donné lieu au développement d’une version tridimensionnelle. / Several geophysical flows, such as ice flows or lava flows, are described by a gravity-driven low Reynolds number movement of a free surface viscoplastic fluid over a bedrock. Their modeling involves constitutive laws, typically describing their rheological behavior or interactions with their bedrock, that lean on empirical parameterizations. Otherwise, the thorough observation of this type of flows is rarely possible; data associated to the observation of these flows, mainly remote-sensed surface data, can be sparse, missing or uncertain. They are also generally indirect : unknown parameters such as the basal slipperiness or the rheology are difficult to measure on the field.This PhD work focuses on the direct and inverse modeling of these geophysical flows described by the power-law Stokes model, specifically dedicated to ice flows, using variational methods.The solution of the direct problem (Stokes non-linear) is based on the principle of minimal dissipation that leads to a variational four-field saddle-point problem for which we ensure the existence of a solution. In this context, the incompressibility condition and the constitutive rheological law represent constraints associated to the minimization problem. The critical points of the corresponding Lagrangian are determined using an augmented Lagrangian type algorithm discretized using three- field finite elements. This algorithm provides an important time and memory saving compared to classical algorithms.We then focus on the inverse numerical modeling of these fluids using the adjoint model through two main associated tools : sensitivity analysis and data assimilation. We first study the rheological modeling through the two principal input parameters (fluid consistency and rheological exponent). Sensitivity analyses with respect to these locally defined parameters allow to quantify their relative weights within the flow model, in terms of surface velocities. Identification of these parameters is also performed. The results are synthetized as a methodology towards “virtual rheometry” that could help and support rheological measurements.The basal slipperiness, major parameter in ice dynamics, is investigated using the same approach. Sensitivity analyses demonstrate an ability to see beyond the ”filtered” and non-local transmission of the basal variability to the surface. Consequently these sensitivities can be used to help defining areas of interest for observation and measurement. This basal slipperiness, empirical modeling of a multiscale complex process, is then used to carry on a comparison with a so called “self-adjoint” method, common in glaciology (neglecting the dependency of the viscosity on the velocity, i.e. the non-linearity). The adjoint model, obtained by automatic differentiation and evaluated by reverse accumulation, leads to define this approximation as a limit case of the complete inverse method. This formalism allows to generalize the process of the numerical evaluation of the adjoint state into an incomplete adjoint method, adjustable in time and accuracy depending on the quality of the data and the level of detail required in the identification.All this work is associated to the development of DassFlow-Ice software dedicated to the direct and inverse numerical simulation of free-surface viscoplastic fluids. This bidimensional prospective software, distributed within the glaciological com- munity, serves as a model for the current development of the tridimensional version.
122

Construction et évaluation d'un modèle de transport de contaminants réactif couplé surface-subsurface à l'échelle du versant / Construction and evaluation of a coupled surface-subsurface flow and transport pesticides model up to hillslope scale.

Gatel, Laura 09 January 2018 (has links)
L'utilisation de pesticides sur les surfaces agricoles conduit à une contamination généralisée des eaux de surface et de subsurface en France. Dans l'attente d'une évolution profonde des pratiques agricoles et d'une baisse durable de l'utilisation des pesticides, il est intéressant de chercher à limiter des transferts des zones agricoles aux zones aquatiques. Pour mieux agir sur les voies de transfert, il est nécessaire d'approfondir les connaissances des processus en jeu et de leurs interactions éventuelles et de tirer au mieux partie des observations du terrain.L'objectif de cette thèse est l'intégration de processus de transferts réactif dans le modèle hydrologique à base physique CATHY (CATchment HYdrology), capable de simuler en 3 dimensions les écoulements de l'eau de façon couplée surface-subsurface et le transport advectif dans des situations variablement saturées. En subsurface, les processus d'adsorption linéaire et de dégradation du premier ordre sont implémentés. Un module de mélange des solutés entre la lame ruisselante et la première couche de sol est ajouté, qui permet de simuler la remobilisation des solutés de la subsurface dans le ruissellement. Le couplage surface-subsurface des écoulement est très efficace dans ce modèle, et le couplage du transport de soluté adoptant la même stratégie a été amélioré pour mieux respecter la conservation de la masse.Le modèle est en premier lieu testé sur des données issues d'expérimentations de transfert de subsurface sur une maquette de laboratoire à petite échelle (2 m de long, o.5 m de large, 1 m de profondeur). Les résultats sont confrontés aux chroniques de flux massiques observées et une analyse de sensibilité de type Morris est menée. Le modèle est capable de reproduire de façon satisfaisante les observations, et très satisfaisante après une légère calibration. Les conductivités à saturation horizontale et verticale, la porosité et le paramètre $n$ de la courbe de rétention influencent de façon non négligeable les résultats hydrodynamiques et de transfert de soluté. Dans un second temps, le modèle est évalué sur les données issus d'un versant viticole réel (0.6 ha) dans un contexte orageux avec de fortes interactions surface-subsurface. Une analyse de sensibilité globale est menée, et met en valeur les mêmes paramètres que la méthode de Morris. Les interactions entre les paramètres influencent fortement la variabilité des sorties hydrodynamiques et de transfert. La conservation de la masse est très correctement assurée malgré la complexité de la simulation.Le modèle auquel on aboutit correspond bien aux objectifs de départ, sa validation est solide, même si elle n'est rigoureusement valable que dans les contextes précis où elle a été réalisée. On a montré que le modèle était robuste et capable de reproduire des données observées. D'autres processus manquent encore pour représenter toutes les voies de transfert à l'échelle du versant, notamment la représentation du transfert préférentiel en subsurface et du transport sédimentaire en surface. / Pesticide use on agricultural surfaces leads to a broad surface and subsurface water contamination in France. Awaiting a deep agricultural practices evolution and a sustained fall of the pesticide use, it is of interest to limit transfers form agricultural fields to rivers. In order to constrain those transfers, a deepen knowledge of processes at stake and their potential interactions is necessary, as well as taking full advantages of fields observations.The aim of this PhD is the reactive transfer processes integration in the Hydrological physically-based model CATHY (CATchment HYdrology) which simulates surface-subsurface coupled water flow and advectiv solute transport in three dimensions and in variably saturated situations. Linear adsorption and first order decay are implemented in subsurface. A mixing modules is added, and evens the concentration between surface runoff and subsurface first layer. This module simulates the solute mobilisation from soil to surface runoff. The water flow surface-subsurface coupling procedure is very accurate in CATHY, and the transport coupling procedure is improve in order to respect the mass conservation.The model is first evaluated on subsurface transfer laboratory experimentation data at a small scale (2 m long, o.5 m wide, 1 m deep). Results are compared to mass flux evolution in time and a Morris sensitivity analysis is conducted. The model is able to acceptably reproduce observation, and properly after a slight calibration. Horizontal and vertical saturated conductivities, porosity and the $n$ parameter of retention curve significantly influence hydrodynamics and solute transport. As a second step, the model is evaluated on data from a field wine hillslope on an intense rain event, therefore in a context with a lot of surface-subsurface interactions. A global sensitivity analysis is conducted and highlights same parameters as the Morris method. Interactions between parameters highly influence the variability of hydrodynamic and solute transfer outputs. Mass conservation is accurate despite the complexity of the context.The resulting model meets the objectives, its evaluation is strong even if its theoretically only valid in the precise context in which the evaluations where conducted. The model is robust and able to reproduce observed data. Some complementary processes are still missing in the model to properly represent transfer ways at the hillslope scale, such as subsurface preferential transfers and surface sedimentary transport.
123

Sylviculture des forêts hétérogènes de montagne et compromis production-biodiversité : une approche simulation / Management of heterogeneous mountain forests and trade-off between timber production and biodiversity conservation : a simulation study

Lafond, Valentine 10 July 2014 (has links)
Les changements globaux et l'évolution du contexte socio-économique renforcent les attentes vis-à-vis d'une gestion multifonctionnelle des forêts. En France, la communauté forestière s'est accordée sur la définition du double objectif de « produire plus de bois, tout en préservant mieux la biodiversité […]» (Grenelle de l'Environnement, 2007). Cet objectif s'accompagne d'une volonté de maintenir des attributs favorables à la biodiversité d'une part, et de « dynamiser » la sylviculture d'autre part. La comptabilité entre ces mesures est toutefois controversée et il est aujourd'hui nécessaire de mieux comprendre leurs effets sur les services écosystémiques, afin de pouvoir définir les conditions d'une gestion forestière multifonctionnelle et durable.L'objectif de la thèse est d'explorer de manière fine l'effet de la sylviculture sur la structure des peuplements, la production de bois et la préservation de la biodiversité. Le travail s'articule autour de deux hypothèses générales : (1) celle que les indicateurs de ces deux services répondent de manière différente à la gestion; (2) celle qu'une gamme intermédiaire d'intensités de sylviculture est favorable au compromis entre production et biodiversité. Le travail a porté sur le cas des sapinières-pessières irrégulières de montagne, qui présentent une longue tradition de gestion en futaie irrégulière et sont jugées favorables à la fourniture d'un certain nombre de services écosystémiques. Nous avons opté pour une approche par simulation s'appuyant sur le couplage d'un modèle de dynamique forestière, d'algorithmes de sylviculture et de modèles et indicateurs de production et de biodiversité. Le travail de thèse a nécessité la mise en place d'une démarche complète d'expérimentation par simulation impliquant les étapes (i) de formalisation des variables de contrôle et de réponse, (ii) de développement et d'évaluation de modèles, (iii) de définition de plans d'expérience, (iv) d'analyse de sensibilité et (v) d'analyse de la réponse des indicateurs à la gestion. Une analyse complète du modèle Samsara2 nous a permis de vérifier la cohérence des dynamiques forestières simulées et la fiabilité des prédictions. Un algorithme de sylviculture a été développé pour modéliser la gestion en futaie irrégulière de manière fine. Deux modèles de biodiversité ont été implémentés à partir de modèles issus de la littérature : un modèle de stockage et de décomposition du bois mort et un modèle de prédiction de la richesse spécifique de la strate herbacée. Une analyse de sensibilité du système nous a tout d'abord permis d'analyser l'influence des paramètres d'entrée (sylvicoles, démographiques ou état initial) sur un ensemble d'indicateurs de structure, production et biodiversité, puis d'identifier et de fixer les paramètres peu influents. Une approche par régression a ensuite permis d'établir la fonction de réponse (métamodèle) de chaque indicateur aux principaux leviers de gestion, en interaction avec la démographie et l'état initial. Nous avons ainsi observé un effet négatif de l'intensification de la gestion sur la biodiversité, bien que cet effet varie en fonction des indicateurs. Les mesures de conservation de la biodiversité peuvent toutefois servir de leviers de compensation dans certains cas, permettant ainsi de concilier les deux objectifs. Des situations de compromis entre indicateurs de production et/ou biodiversité ont été détectées, mais leur analyse fine nécessite désormais de se tourner vers les méthodes d'analyse multicritère.Ainsi, l'analyse couplée des de la réponse des indicateurs de services écosystémiques à la gestion et des scénarii de gestion situés sur la zone de compromis devrait permettre d'alimenter les échanges avec les gestionnaires forestiers et de discuter des recommandations de gestion à l'échelle de la parcelle ou du massif forestier. / Global change and the evolution of the socio-economic context reinforce the expectations for multifunctional forest management. In France, the forest community agreed on the definition of the double objective of “improving timber production while preserving biodiversity better” (Grenelle 2007). This objective goes along with a will of maintaining the natural attributes favoring biodiversity on one hand, and of increasing management intensity on the other hand. The compatibility between both objectives is however controversial and it seem nowadays necessary to better understand their effects on ecosystem services, so as to enable the definition of multifunctional and sustainable forest management. The objective of this PhD thesis is to explore the effect of silviculture on stand structure, timber production and biodiversity preservation. This works involves two main hypotheses: (1) the fact that ecosystem services indicators present different responses to silvicultural drivers, thus leading to trade-offs situations; (2) the fact that management scenarios of intermediate intensity may enable satisfactory production-biodiversity trade-offs to be reached. This work addressed the case of uneven-aged spruce-fir mountain forests, which present a long tradition of uneven-aged management (selection system) and are judged favorable to the provision of several ecosystem services. We used a simulation approach coupling a forest dynamics simulation model (Samsara2), a silviculture algorithm, and ecosystem services models and indicators (for timber production and biodiversity). This however required a complete simulation experiment approach to be set up, with several steps: (i) formalization of control and response variables, (ii) model development and evaluation, (iii) experiment designs definition, (iv) sensitivity analysis, and (v) study of indicators' response to management. A complete analysis of the Samsara2 model enabled the consistency of simulated forest dynamics and the reliability of predictions to be checked. A silviculture algorithm has been developed to accurately model uneven-aged management. Two biodiversity models have been implemented from the literature: a dead wood decay model and an understory diversity model.A sensitivity analysis of the system first enabled us to assess the influence of input parameters (silviculture, demographic and initial state) on structure, timber production and biodiversity indicators, and then to identify and fix those with low influence. Then, a regression approach enabled the establishment of the response function (metamodels) of each indicator to the main silvicultural factors, in interaction with demography and initial state. This revealed the negative effect of increased management intensity on biodiversity indicators, although its effect depended on the indicator. Biodiversity conservation measures could however be used as compensation drivers in some cases, therefore enabling both objectives to be concealed. Trade-offs situations have also been detected between timber production and/or biodiversity conservation indicators, but their analysis now require specific multi-criteria analysis to be used.The combined analysis of ecosystem services response to silvicultural drivers and of management scenarios located on the trade-offs area would then supply the discussion with forest managers with new elements and enable management recommendations to be discussed at the stand or landscape scale.
124

Investigation on uncertainty and sensitivity analysis of complex systems / Enquête sur l'incertitude et l'analyse de sensibilité des systèmes complexes

Zhu, Yueying 23 October 2017 (has links)
Par un développement en série de Taylor, une relation analytique générale est établie pour calculer l’incertitude de la réponse du modèle, en assumant l'indépendance des entrées. En utilisant des relations de puissances et exponentielles, il est démontré que l’approximation souvent utilisée permet d’évaluer de manière satisfaisante l’incertitude sur la réponse du modèle pourvu que l’incertitude d’entrée soit négligeable ou que le modèle soit presque linéaire. La méthode est appliquée à l’étude d’un réseau de distribution électrique et à un modèle d’ordre économique.La méthode est étendue aux cas où les variables d’entrée sont corrélées. Avec la méthode généralisée, on peux déterminer si les corrélations d'entrée doivent ou non être considérées pour des applications pratiques. Des exemples numériques montrent l'efficacité et la validation de notre méthode dans l'analyse des modèles tant généraux que spécifiques tels que le modèle déterministe du VIH. La méthode est ensuite comparée à celle de Sobol. Les résultats montrent que la méthode de Sobol peut surévaluer l’incidence des divers facteurs, mais sous-estimer ceux de leurs interactions dans le cas d’interactions non linéaires entre les paramètres d’entrée. Une modification est alors introduite, aidant à comprendre la différence entre notre méthode et celle de Sobol. Enfin, un modèle numérique est établi dans le cas d’un jeu virtuel prenant en compte la formation de la dynamique de l'opinion publique. L’analyse théorique à l’aide de la méthode de modification d'un paramètre à la fois. La méthode basée sur l'échantillonnage fournit une analyse globale de l'incertitude et de la sensibilité des observations. / By means of taylor series expansion, a general analytic formula is derived to characterise the uncertaintypropagation from input variables to the model response,in assuming input independence. By using power-lawand exponential functions, it is shown that the widelyused approximation considering only the first ordercontribution of input uncertainty is sufficiently good onlywhen the input uncertainty is negligible or the underlyingmodel is almost linear. This method is then applied to apower grid system and the eoq model.The method is also extended to correlated case. Withthe extended method, it is straightforward to identify theimportance of input correlations in the model response.This allows one to determine whether or not the inputcorrelations should be considered in practicalapplications. Numerical examples suggest theeffectiveness and validation of our method for generalmodels, as well as specific ones such as thedeterministic hiv model.The method is then compared to Sobol’s one which isimplemented with sampling based strategy. Resultsshow that, compared to our method, it may overvaluethe roles of individual input factors but underestimatethose of their interaction effects when there arenonlinear coupling terms of input factors. A modificationis then introduced, helping understand the differencebetween our method and Sobol’s one.Finally, a numerical model is designed based on avirtual gambling mechanism, regarding the formation ofopinion dynamics. Theoretical analysis is proposed bythe use of one-at-a-time method. Sampling-basedmethod provides a global analysis of output uncertaintyand sensitivity.
125

Développement d’une méthode d’optimisation multiobjectif pour la construction bois : prise en compte du confort des usagers, de l’impact environnemental et de la sécurité de l’ouvrage / Development of a multiobjective optimisation method for timber building : consideration of user comfort, environmental impact and structural safety

Armand Decker, Stéphanie 22 September 2015 (has links)
Les pays industrialisés cherchent aujourd’hui à réduire leur consommation d'énergie et à utiliser des matières premières de substitution, notamment renouvelables dont le bois fait partie. Pour promouvoir son usage, le développement de méthodes favorisant son recours dans les systèmes constructifs pour la construction multiétage est nécessaire.La conception d’un bâtiment est multicritère. Des objectifs contradictoires sont à optimiser simultanément. Des solutions de compromis Pareto-optimaux sont par exemple recherchées entre l’atteinte des meilleures performances d’usage et la limitation de l’impact environnemental du bâtiment. Ces travaux portent ainsi sur le développement d’une méthode d’optimisation multiobjectif de systèmes constructifs bois adaptés au multiétage.Des objectifs de maximisation du confort vibratoire des planchers et de minimisation des besoins de chauffage, d’inconfort thermique, de potentiel de réchauffement climatique et d’énergie grise sont pris en compte. La méthode repose sur un algorithme d’optimisation multiobjectif par essaim particulaire capable de proposer un ensemble de solutions non-dominées constituant le front de Pareto. L’espace des solutions est contraint par des exigences réglementaires nécessaires à la sécurité de l’ouvrage. L’ensemble des fonctions-objectif est modélisé sous forme de fonctions analytiques. Les sorties d’intérêt du modèle de simulation thermique dynamique sont substituées par des métamodèles.La méthode développée est mise en oeuvre sur un cas d’étude. Les résultats obtenus offrent une grande diversité dans un panel de 20 000 solutions optimales. Ces résultats constituent un support de discussion entre les différents acteurs d’un projet de construction. / Industrialised countries are seeking to reduce their energy consumption and to use alternative raw materials, including renewables such as wood. To promote its use, multi-storey timber constructive systems need the development of new design methods.Building required a multicriteria design where conflicting objectives must be optimised simultaneously. Research solutions have to achieve the best Pareto-compromise between use performance and environmental impact of the building. This work aims to develop a multiobjective optimisation method of timber multi-storey building.The objectives of maximising floor vibration comfort and minimising heating needs, thermal discomfort, global warming potential and embodied energy are taken into account. A multi-objective particle swarm optimization algorithm is used to obtain a set of non-dominated solutions which is the Pareto front. The solution space is constrained by regulatory requirements necessary for the safety of the structure. All objective-functions are modelled as analytic functions. Dynamic thermal simulation model outputs are replaced by metamodels.The developed method is implemented on a case study. The results offer a great diversity in a panel of 20 000 optimal solutions. These results provide a basis for discussion between the different actors of a construction project.
126

Development of innovative passive polyurethane foam with higher absorption and/or insulation performance / Développement innovant de mousse passive de polyuréthanee ayant la meilleure performance en absorption et/ou en isolation

Gholami, Mohammad Sadegh January 2017 (has links)
Les mousses de polyuréthane (PU) hautement poreuses sont largement utilisées dans différentes industries pour dissiper l’énergie des ondes sonores et vibratoires. La propagation des ondes acoustiques dans ces matériaux poroélastiques est décrite à partir d’un ensemble de paramètres physiques connus sous le nom de paramètres de Biot (pour les matériaux isotropes, ils sont composés de 5 paramètres non acoustiques et de 4 paramètres mécaniques). Il est bien connu que les propriétés macroscopiques dépendent intrinsèquement des propriétés de la microstructure de la mousse. Ainsi, une compréhension claire des corrélations entre la structure interne des mousses de PU et leurs paramètres de Biot ainsi que la contribution de chaque paramètre, soit microscopique ou macroscopique, sur l’indicateur vibroacoustique désiré est d’un intérêt majeur au stade précoce de la conception et de l’optimisation de ces matériaux poroélastiques. Le développement d’un modèle micromacro qui corrèle les propriétés de la microstructure aux paramètres macroscopiques de Biot est donc nécessaire. Récemment, un modèle qui corrèle les propriétés de la microstructure des mousses PU hautement poreuses à leurs propriétés non acoustiques a été présenté par Doutres et coll. [24, 25]. Dans cette étude, les propriétés de la microstructure (dimensions de la cellule et taux de réticulation) sont d’abord caractérisées par un microscope électronique à balayage (SEM). Ensuite, l’effet du taux de réticulation (mesurant le pourcentage de fenêtres ouvertes), de la taille des cellules et de la densité relative sur les propriétés mécaniques de la mousse de polyuréthane a été élucidé à l’aide d’un modèle numérique. Se basant sur ce modèle, un modelé analytique existant, qui corrèle les propriétés de la microstructure de mousses PU entièrement réticulées à ses propriétés mécaniques, a été revu et corrigé pour tenir compte de l’effet important du taux de réticulation. En combinant le modèle de Doutres avec le modèle mécanique développé dans cette thèse, un modèle micro-macro complet est ainsi obtenu. Utilisant ce modèle, l’impact de la variabilité de la microstructure et la contribution de chacun des paramètres microstructuraux à la réponse vibroacoustique ont été étudiés utilisant une méthode d’analyse de sensibilité globale (FAST). La méthode FAST a été utilisée pour identifier l’impact de la microstructure sur, premièrement, les paramètres de Biot-Allard et, deuxièmement, sur les indicateurs vibroacoustiques (absorption et perte par transmission) des mousses de polyuréthane poroélastiques. Une fois les modèles micro-macro et la contribution des propriétés de la microstructure connus, la performance vibroacoustique de la mousse a été optimisée. Ainsi nous avons testé numériquement la performance acoustique de mousses homogènes et de mousses graduellement structurées (variation de propriétés suivant l’épaisseur de la mousse). Cette étude ouvre ainsi de nouvelles portes pour concevoir des mousses PU innovantes avec une microstructure modifiée et des performances vibroacoustique améliorées. / Abstract : Highly porous polyurethane (PU) foams are widely used in different industries to dissipate the energy of sound and vibration waves. Propagation of acoustic waves in such poroelastic materials is explained based on a set of physical parameters known as the Biot's parameters (for isotropic materials these are comprised of 5 non-acoustical parameters and 4 mechanical parameters). These macroscopic properties are inherently dependent on the microstructure properties of the foam. Hence, a clear understanding of correlations between the internal structure of PU foams and their Biot's parameters and the contribution of each parameter, either microscopic or macroscopic, to classical vibro-acoustic indicators is of utmost interest at the early stage of design and optimization of such poroelastic materials. In consequence, a micro macro model that correlates microstructure properties to macroscopic Biot's parameters is needed. Recently, a model that correlates the microstructure properties of highly porous PU foams to their non-acoustical properties was presented by~\citet{Doutres2011,Doutres2013}. In this study, micro-structure properties (strut length, strut thickness, and open pore content) are first characterized using a Scanning Electron Microscope (SEM). Then, a numerical study is performed to elucidate the effect of open pore content (known as reticulation rate), cell size, and relative density on the mechanical properties of polyurethane foam. Based on this study, an existing analytical model~\cite{Gong2005} that correlates fully reticulated unit cell microstructure properties of PU foams to its mechanical properties is corrected and updated to account for these important parameters. Combined with Doutres’ model, the proposed extension lead to a full micro-macro model for predicting the acoustic performance of PU foams from its microstructure. Using this model, the contribution of the unit cell parameters and effect of their variability on classical vibro-acoustic indicators (absorption and transmission loss) is investigated using a global sensitivity analysis method (FAST). The FAST method is used to identify the impact of microstructure role on, first, the Biot-Allard parameters and, second, on vibro-acoustical indicators of poroelastic polyurethane foams. Based on this sensitivity analysis study, the developed micro-macro model, is used to design both optimum homogeneous foam and functionally graded foams (properties optimally varnish along the thickness of the foam) targeting specific in absorption and/or transmission loss problems. This study opens thus a new door to design innovative PU foams with modified micro-structure and improved vibro-acoustical performance.
127

Etude de l’incinération du plutonium en REP MOX sur support d’uranium enrichi avec le code de simulation dynamique du cycle CLASS / Study of plutonium incineration in PWR loaded with MOX on enriched uranium support with the fuel cycle simulator CLASS

Courtin, Fanny 27 October 2017 (has links)
Les codes de simulation du cycle du combustible nucléaire sont des outils permettant d’évaluer les stratégies futures du cycle du combustible nucléaire et de comprendre la physique de ce cycle. Dans le contexte d’incertitude entourant l’évolution future du parc nucléaire français, notamment concernant le déploiement de Réacteurs à Neutrons Rapides au sodium (RNR-Na), la problématique de cette thèse est d’étudier des solutions alternatives de gestion du plutonium et des autres noyaux lourds, basées sur les Réacteurs à Eau Pressurisés (REP). Les stratégies étudiées s’appuient sur deux hypothèses. La première suppose un retard important dans le déploiement des RNR-Na, impliquant une stratégie d’attente visant à stabiliser l’inventaire en plutonium. La deuxième hypothèse suppose un abandon de la stratégie de déploiement des RNR. Dans ce cadre, une stratégie d’incinération du plutonium a été étudiée pour quantifier la capacité de réduction de l’inventaire par les REP. Le code de simulation CLASS, développé par le CNRS/IN2P3 et l’IRSN, est utilisé. Le multi-recyclage du plutonium en REP requiert un combustible dédié. Des développements ont été réalisés pour modéliser le combustible étudié, composé de MOX sur un support d'uranium enrichi. Une méthodologie innovante d’évaluation de scénarios nucléaires basée sur l’analyse globale de sensibilité a été appliquée. Cette méthode a permis d’identifier des scénarios de référence pour la stabilisation et la réduction de l’inventaire en plutonium et actinides mineurs. Des simulations du cycle détaillées ont été réalisées afin d'analyser la capacité des REP à gérer le plutonium à l’échelle du cycle. / Nuclear fuel cycle simulation codes are used to evaluate fuel cycle future strategies and understand the nuclear fuel cycle physics. In the context of uncertainty related to the future of French nuclear fleet, especially on theSodium Fast Reactor (SFR) deployment, the present work aims to study alternative solutions for plutonium and heavy isotopes management, based on Pressurized Water Reactor (PWR). Two hypothesis have been formulated to identify strategies. First, a delay has been expected in SFR deployment which induces a stabilization of plutonium inventory before SFR integration. The second hypothesis is based on the assumption that SFR won’t be deployed in France. For this specific case, a plutonium incineration strategy has been studied to quantify the PWR plutonium inventory reduction capacity. Fuel cycle simulations are performed using the fuel cycle simulator CLASS developed by the CNRS/IN2P3 in collaboration with IRSN. Plutonium multi-reprocessing in thermal reactor requires an innovative fuel. Developments have been made to simulate a fuel composed of MOX on enriched uranium support. An innovative methodology for fuel cycle simulation evaluation, based on Global Sensitivity Analysis, has been applied. This methodology leads to reference scenarios identification for plutonium and minor actinides inventories stabilization and reduction. Fuel cycle detailed simulations have been performed to produce fuel cycle data, to analyze PWR plutonium management at the cycle scale.
128

Influence de la non-stationnarité du milieu de propagation sur le processus de Retournement Temporel (RT) / Impact of uncertainties in Electromagnetic Time Reversal process

Jannet, Basile 29 January 2014 (has links)
Cette thèse a pour objectif la quantification de l’impact d’incertitudes affectant le processus de Retournement Temporel (RT). Ces aléas, de natures diverses, peuvent avoir une forte influence s’ils se produisent entre les deux étapes du RT. Dans cette optique la méthode de Collocation Stochastique (CS) est utilisée. Les très bons résultats en termes d’efficacité et de précision observés lors de précédentes études en Compatibilité ÉlectroMagnétique (CEM) se confirment ici, pour des problématiques de RT. Cependant, lorsque la dimension du problème à traiter augmente (nombre de variables aléatoires important), la méthode de CS atteint ses limites en termes d’efficacité. Une étude a donc été menée sur les méthodes d’Analyse de Sensibilité (AS) qui permettent de déterminer les parts d’influence respectives des entrées d’un modèle. Parmi les différentes techniques quantitatives et qualitatives, la méthode de Morris et un calcul des indices de Sobol totaux ont été retenus. Ces derniers apportent des résultats qualitatifs à moindre frais, car seule une séparation des variables prépondérantes est recherchée. C’est pourquoi une méthodologie combinant des techniques d’AS avec la méthode de CS a été développée. En réduisant le modèle aux seules variables prédominantes grâce à une première étude faisant intervenir les méthodes d’AS, la CS peut ensuite retrouver toute son efficacité avec une grande précision. Ce processus global a été validé face à la méthode de Monte Carlo sur différentes problématiques mettant en jeu le RT soumis à des aléas de natures variées. / The aim of this thesis is to measure and quantify the impacts of uncertainties in the Time Reversal (TR) process. These random variations, coming from diverse sources, can have a huge influence if they happen between the TR steps. On this perspective, the Stochastique Collocation (SC) method is used. Very good results in terms of effectiveness and accuracy had been noticed in previous studies in ElectroMagnetic Compatibility (EMC). The conclusions are still excellent here on TR problems. Although, when the problem dimension rises (high number of Random Variables (RV)), the SC method reaches its limits and the efficiency decreases. Therefore a study on Sensitivity Analysis (SA) techniques has been carried out. Indeed, these methods emphasize the respective influences of the random variables of a model. Among the various quantitative or qualitative SA techniques the Morris method and the Sobol total sensivity indices have been adopted. Since only a split of the inputs (point out of the predominant RV) is expected, they bring results at a lesser cost. That is why a novel method is built, combining SA techniques and the SC method. In a first step, the model is reduced with SA techniques. Then, the shortened model in which only the prevailing inputs remain, allows the SC method to show once again its efficiency with a high accuracy. This global process has been validated facing Monte Carlo results on several analytical and numerical TR cases subjet to random variations.
129

Modélisation, analyse et optimisation d’un largage de fusée spatiale depuis un porteur de type avion / Modeling, analysis, and optimization of the separation of a space rocket from a carrier aircraft

Sohier, Henri 28 November 2014 (has links)
Un système de lancement aéroporté est constitué d'un porteur de type avion larguant un lanceur à une certaine altitude. De tels systèmes sont l'objet d'un intérêt croissant, notamment pour la mise à poste de petits satellites. Les travaux présentés dans cette thèse s'intègrent dans le programme Perseus du CNES qui a déjà donné lieu à la construction d'un modèle réduit appelé EOLE. Il s'agit d'étudier la phase de largage, particulièrement sensible.Les contraintes de similitude pouvant permettre l'étude du largage taille réelle avec EOLE sont d'abord identifiées. Les possibilités d'extrapolation directe et déterministe des mesures réalisées avec EOLE étant limitées par le non respect d'une contrainte de masse, il est choisi d'étudier le largage avec une approche probabiliste en développant un nouveau modèle multi-corps. Une grande variété d'incertitudes est prise en compte, concernant par exemple aussi bien les interactions aérodynamiques que le mécanisme de séparation. Un nouveau critère de performance générique,basé sur des géométries élémentaires, est développé pour évaluer la fiabilité du largage.L'analyse de sensibilité du largage aux facteurs d'incertitude est ensuite réalisée. Compte tenu du nombre élevé de paramètres en jeu et du temps de simulation, il est d'abord recherché une simplification du modèle. La méthode de Morris est utilisée pour identifier des facteurs d'incertitude peu influents pouvant être fixés à une certaine valeur. Cette étape est fréquente, mais il est montré qu'il existe un risque important de fixer des facteurs dont l'influence a en fait été sous-estimée. Une adaptation de la méthode de Morris améliorant l'échantillonnage des facteurs, le calcul de leurs influences et le traitement statistique des résultats permet de réduire considérablement ce risque.Une fois l'impact des différentes incertitudes estimé, il a été possible d'optimiser les conditions de largage afin de réduire la probabilité qu'un problème intervienne. / In an air launch to orbit, a space rocket is launched from a carrier aircraft. Air launchto orbit appears as particularly interesting for small satellites. This Ph.D. thesis is part of the program Pegasus of the French space agency CNES and it follows the development of a small scale demonstrator called EOLE. It focuses on the very sensitive separation phase.The similitude constraints which have to be respected to study the large scale system with EOLEare first identified. A problem of mass limits the possibilities to directly extrapolate at a larger scale, in a deterministic approach, data obtained with EOLE. It is decided to study the separation in a probabilistic approach by developing a new multi-body model. A great variety of uncertainties are taken into account, from the aerodynamic interactions to the atmospheric turbulences, the separation mechanism, and the launch trajectories. A new performance criterion is developed to quantify the safety of the separation phase. It is based on elementary geometries and it could beused in other contexts.A sensitivity analysis is applied to estimate the influence of the uncertainties on the performance criterion. Given the large number of factors of uncertainty and the non-negligible simulation time,the model is first simplified. The Morris method is applied to identify the factors with a low influence which can be fixed to a given value. It is a frequent step, but it is shown that there isa high risk to fix the wrong factors. Any further study would then be altered. The risk to fix the wrong factors is significantly reduced by improving the factors sampling, the calculation of their influence, and the statistical treatment of the results. This new method is used to estimate the influence of the uncertainties at the separation and the safety is improved by optimizing launch trajectories.
130

Etude de l'impact des incertitudes dans l'évaluation du risque NRBC provoqué en zone urbaine / A study on the impact of uncertainties in the risk assessment of CBRN scenarios in urban areas

Margheri, Luca 13 November 2015 (has links)
La dispersion d'agents biologiques hautement pathogène dans une zone urbanisée après un acte terroriste est l'une des situations que les agences de sécurité nationales ont besoin d'évaluer en termes des risques et de la prise de décision. La simulation numérique des écoulements turbulents dans les zones urbaines, y compris la surveillance de la dispersion des polluants, a atteint un niveau de maturité suffisant pour faire des prédictions sur les zones urbaines réalistes jusqu'à 4 km2. Les simulations existantes sont déterministes dans le sens que tous les paramètres qui définissent le cas étudié (l'intensité et la direction du vent, la stratification atmosphérique, l'emplacement de la source des émissions, etc.) devraient être bien connu. Cette précision ne peut être atteint dans la pratique en raison d'un manque de connaissances sur la source d'émissions et de l'incertitude aléatoire intrinsèque des conditions météorologiques.Pour augmenter la contribution de la simulation numérique pour l'évaluation des risques et la prise de décision, il est essentiel de mesurer quantitativement l'impact d'un manque de connaissances en termes de résolution spatiale et temporelle des zones de danger.L'objet de cette thèse est d'appliquer des méthodes de quantification d'incertitude pour quantifier l'impact de ces incertitudes dans l'évaluation des zones de danger à moyenne portée dans des scénarios de dispersion de gaz toxiques. Une méthode hybride c-ANOVA et POD/Krigeage permet d'envisager jusqu'à 5 paramètres incertains dans une simulation 3D-CFD haute fidélité non-stationnaire de la dispersion d'un gaz toxique provenant d'une source type flaque dans une zone urbaine de 1km2. / The dispersion of highly pathogenic biological agents in an urbanized area following a terrorist act is one of the situations that national security agencies need to evaluate in terms of risk assessment and decision-making. The numerical simulation of turbulent flows in urban areas, including monitoring the dispersion of pollutants, has reached a sufficient level of maturity to make predictions on realistic urban zones up to 4 square kilometers. However, the existing simulations are deterministic in the sense that all the parameters that define the case studied (intensity and wind direction, atmospheric stratification, source of emissions location, quantity of injected toxic agent, etc.) should be well known. Such precision cannot be achieved in practice due to a lack of knowledge about the source of emission and the intrinsic aleatoric uncertainty of the meteorological conditions. To significantly increase the contribution of numerical simulation for risk assessment and decision-making, it is essential to quantitatively measure the impact of a lack of knowledge especially in terms of spatial and temporal resolution of the danger zones. The object of this thesis is to apply uncertainty quantification methods to quantify the impact of these uncertainties in the evaluation of the danger zones in medium range toxic gas dispersion scenarios. A hybrid method merging c-ANOVA and POD/Kriging allows to consider up to 5 uncertain parameters in a high-fidelity unsteady 3D-CFD simulation of the dispersion of a toxic gas from a pond-like source in an urban area of 1km2.

Page generated in 0.1878 seconds