• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 1
  • Tagged with
  • 39
  • 15
  • 14
  • 13
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Strategy for Selecting Input Ground Motion for Structural Seismic Demand Analysis / Élaboration de Stratégies de Sélection de Signaux Accélérométriques pour le Calcul du Comportement des Structures

Isbiliroglu, Levent 01 March 2018 (has links)
Les signaux accélérométriques enregistrés lors de l’occurrence d’un événement sismique est très large présentent une forte variabilité, par conséquent ils ne sont pas utilisé dans les analyse dynamiques de tenue sismique des structures. En effet, l’utilisation des accélérogrammes réels, pour les analyses dynamiques non linéaires, s’avère couteuse en termes de temps de calcul. La pratique courante prévoit la minimisation (voir suppression) de telle variabilité, mais les conséquences d’une telle opération sur la réponse des structures ne sont pas clairement indiquées. L’étude ci-présente a pour scope la quantification de l’impact des méthodes de sélection qui gardent la variabilité du signal sur les résultats de l’analyse de la réponse des structures (exprimée en termes d’engineering demand parameters EDPs). En particulier les questions suivantes seront investiguées :Quel est le niveau de variabilité des accélérogrammes réels et comment ce niveau est modifié par les techniques couramment utilisées ?Quelle est l’impact de la variabilité sur la réponse de plusieurs types de structures ?Pour un scénario sismique donné, un spectre cible est défini à partir de plusieurs équation de prédiction du mouvement sismique, sélection parmi celles disponibles en littérature. Les accélérogrammes sont sélectionnés à partir de quatre familles d’accélérogrammes, chacune relative à une méthode de modification : réels (enregistrés); mise à l’échelle (multiplication, par un facteur) ; calés aux spectres cibles avec large tolérance ; calés aux spectres cibles dans une plage de tolérance étroite.Chaque jeu de signaux est composé de cinq accélérogrammes et la sélection des signaux est faite en tenant compte de deux sources de variabilité : la variabilité au sein de chaque jeu de données (intraset), et la variabilité entre les différents jeux de données (interset) tous compatibles avec le même spectre cible. Les tests sur les EDPs menés sur les signaux accélérométriques réels mènent à la quantification de la variabilité naturelle (pour le scénario considéré). Les analyses basées sur les signaux réels sont utilisés comme benchmark afin d’évaluer non seulement de combien la distribution des EDPs (en termes de valeur moyenne et variabilité) est réduite par les différentes méthodes testées, mais aussi d’évaluer l’impact des choix de l’équation de prédiction du mouvement, des plages de tolérance, du nombre d’accélérogrammes constituant chaque jeu, du nombre de jeux, de le scope de l’analyse structurale et le modèle de structure.Ce travaille nous conduit à conclure que un seul jeu d’accélérogramme, tel qu’utilisé dans la pratique courante, est insuffisant pour assurer le niveau d’EDPs indépendamment de la méthode de modification utilisés, cela est lié à la variabilité des signaux et entre les jeux d’accélérogrammes. Les signaux réels, compatibles avec le spectre définis pour le scénario sismique, are l’option plus réaliste pour l’analyse dynamique non-linéaire ; si une méthode de modification du signal est nécessaire, la plus adaptées dépend du scope de l’analyse spectrale et du modèle. Le choix de l’équation de prédiction du mouvement sismique utilisée pour définir le spectre cible impacte significativement les caractéristiques des mouvements sismiques et des EDPs. Cette observation ne dépend pas de la stratégie de de modification du signal. / The observed variability is very large among natural earthquake records, which are not consolidated in the engineering applications due to the cost and the duration. In the current practice with the nonlinear dynamic analysis, the input variability is minimized, yet without clear indications of its consequences on the output seismic behavior of structures. The study, herein, aims at quantifying the impact of ground motion selection with large variability on the distribution of engineering demand parameters (EDPs) by investigating the following questions:What is the level of variability in natural and modified ground motions?What is the impact of input variability on the EDPs of various structural types?For a given earthquake scenario, target spectra are defined by ground motion prediction equations (GMPEs). Four ground motion modification and selection methods such as (1) the unscaled earthquake records, (2) the linearly scaled real records, (3) the loosely matched spectrum waveforms, and (4) the tightly matched waveforms are utilized. The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications.Each dataset is composed by five accelerograms; the response spectrum compatible selection is then performed by considering the impact of set variability. The intraset variability relates to the spectral amplitude dispersion in a given set, and the interset variability relates to the existence of multiple sets compatible with the target.The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications. The distributions of EDPs obtained by the modified ground motions are compared to the observed distribution by the unscaled earthquake records as a function of ground motion prediction equations, objective of structural analysis, and structural models.This thesis demonstrates that a single ground motion set, commonly used in the practice, is not sufficient to obtain an assuring level of the EDPs regardless of the GMSM methods, which is due to the record and set variability. The unscaled real records compatible with the scenario are discussed to be the most realistic option to use in the nonlinear dynamic analyses, and the ‘best’ ground motion modification method is demonstrated to be based on the EDP, the objective of the seismic analysis, and the structural model. It is pointed out that the choice of a GMPE can provoke significant differences in the ground motion characteristics and the EDPs, and it can overshadow the differences in the EDPs obtained by the GMSM methods.
32

Performances, modélisation et limites d'un procédé à lit fluidisé associant culture libre et fixée (IFAS) pour le traitement du carbone et de l'azote des eaux résiduaires / Performance, modeling and boundaries of a fluidized bed process combining free and fixed biomass (IFAS) for carbon and nitrogen removal of wastewater

Moretti, Paul 09 November 2015 (has links)
Motivées par des normes de rejets en azote toujours plus sévères et par les besoins d'extension de certaines stations d'épuration, les agglomérations sont à la recherche de nouvelles technologies de traitement plus compactes et plus performantes. Dans ce sens, le procédé hybride, à lit fluidisé placé dans un réacteur de type boues activées (IFAS), est une nouvelle technologie de traitement du carbone et de l'azote très attractive. L'objectif de cette thèse est d'optimiser le dimensionnement du procédé IFAS en configuration trois bassins (anoxie/aérobie BA/aérobie IFAS) et d'apporter des recommandations sur la conduite du procédé (charge massique appliquée, température.). Pour cela, une double démarche expérimentale et numérique a été mise en place. Un pilote de 3 m3 alimenté en eau usée brute a été conçu, instrumenté et étudié pendant 2 ans au cours de 7 périodes stabilisées (entre 0,15 et 0,30 kgDBO5/kgMVSLM/j, température entre 10 et 22°C, et le séquençage de l'aération dans les bassins). La concentration en MES dans la liqueur mixte a été maintenue à 2,3 gMES/L et la concentration en oxygène entre 2 à 6 mgO2/L. Les capacités de nitrification du biofilm et de la liqueur mixte (NPRmax) ont été mesurées tous les 15 jours. Les performances d'élimination de l'azote (nitrification et dénitrification) et du carbone observées sont restées supérieur à 90% d'élimination pour une charge massique maximale de 0,30 kgDBO5/kgMVSLM/j entre 16 à 24°C. Le biofilm dispose d'une capacité de nitrification maximale de 0,90 gN/m2/j et tributaire des concentrations en oxygène dans la liqueur mixte (contraintes diffusionnelle). Le biofilm contribue en moyenne à hauteur de 60% du flux total nitrifié dans le réacteur IFAS pour des âges de boues < 5 jours à 16°C. La diminution du MLSRT en dessous de 4 jours a permis de limiter le développement des bactéries autotrophes dans la liqueur mixte (minimum 10% du flux total nitrifié par la liqueur mixte) mais pas de les supprimer totalement (apport de nitrifiante par détachement de biofilm) / Motivated by the increasingly demanding discharge consents and by the need to improve overall treatment capacity, water authorities are uninterruptedly examining better performing and more compact wastewater treatment technologies. Thanks to its compactness and to its capacity to treat both organic matter and nitrogen at an affordable cost, the IFAS process represents an attractive addition to improve retrofitting-activated sludge plants performance. The main objective of this thesis is to optimize IFAS process with regards to key operation parameters such as dimensioning, F/M ratio by combining experimental and mathematical modelling approaches. A 3 m3 pilot IFAS fed with raw wastewater was operated at the experimental hall of La Feyssine wastewater treatment plant, Villeurbanne, for a period of 2 years. The IFAS process was separated in 3 tanks to treat organic matter and total nitrogen separately (anoxic/aerobic, suspended/aerobic IFAS). The experimental study was divided in 7 periods with different steady state operation conditions each. The feasibility of nitrification at steady F/M ratios (between 0,1S to 0,30 kgBODS/kgMLVSS/d), at constant temperatures (between 10 - 22°C) and at different oxygen supply rates was investigated. TSS in mixed liquor were maintained at 2,3 gMLTSS/L and oxygen concentration between 2 to 6 mgO2/L. Biofilm mass and combined nitrification capacity of biofilm and mixed liquor (NPRmax) were measured on a weekly basis. The removal performance was up to 90% for nitrogen and carbon treatment with a maximal F/M ratio of 0,30 kgBODS/kgMLVSS/d between 16°C to 24 °C. The biofilm was able to nitrify 0,90 gN/m2/d (NPRmax) depending on the oxygen concentration in the mixed liquor (diffusional limitation). Under the operating conditions tested in this study, biofilm was responsible for 40 to 70% of NOx-N production in IFAS reactor during nitrification. Decreasing the MLSRT to less than 4 days limits the growth of autotrophic bacteria in the mixed liquor but does not halt it completely
33

Modélisation spatialisée des échanges surface-atmosphère à l'échelle d'une région agricole méditerranéenne / Spatialized modeling of land surface-atmosphere exchanges at the extent of an agricultural Mediterranean region

Montes, Carlo 13 October 2014 (has links)
En régions méditerranéennes, la gestion de l'eau à partir d'outils d'aide à la décision requiert la connaissance des échanges d'énergie et de masse entre la surface et l'atmosphère, dont l'évapotranspiration, qui représente la composante majeure du cycle hydrologique. Les avancées récentes, en termes de modélisation des Transferts Sol-Végétation-Atmosphère (TSVA) pour des couverts homogènes et d'assimilation des données de télédétection, principalement à l'échelle subrégionale, permettent d'envisager le passage à l'échelle régionale pour des couverts complexes de type cultures en rang. L'objectif de ce travail est de développer une modélisation versatile et de la caler par télédétection à l'échelle régionale sur un bassin versant viticole. Les investigations sont menées sur le bassin versant de la Peyne, dans le cadre de l'ORE OMERE. Une analyse bibliographique a permis de sélectionner un modèle TSVA à vocation régionale avec un nombre réduit de paramètres. L'implémentation de ce modèle est motivée par des objectifs de versatilité mais aussi d'inclusion dans une plateforme de simulation. Parallèlement, l'évapotranspiration a été spatialisée à l'échelle régionale par synergie des données télédétectées infrarouge thermique ASTER et Landsat. Les chroniques d'évapotranspiration obtenues sont ensuite utilisées pour caler le modèle TSVA. / In Mediterranean regions, decision making tools for water management require knowledge of water and mass exchanges between land surface and atmosphere, where evapotranspiration is the main component of the hydrological cycle. Recent advances, in terms of modeling and remote sensing, mainly at the subregional scale for homogeneous canopies, allow foreseeing the regional extent for complex landscapes such as row crops. This work aims to propose and calibrate a versatile modeling at the regional scale over a vineyard watershed, the calibration relying on remote sensing. A literature review allows selecting a SVAT model with a regional scope and a limited number of parameters. Model implementation is motivated by versatility and further inclusion into a simulation platform. Then, evapotranspiration is spatialized synergistically by using thermal infrared data from ASTER and Landsat remote sensors. Next, the time series obtained for evapotranspiration are used for calibrating the selected SVAT model. These investigations are conducted over the Peyne watershed, within the framework of the OMERE Observatory for environmental research.
34

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages / Penalization and data reduction of auxiliary variables in survey sampling

Shehzad, Muhammad Ahmed 12 October 2012 (has links)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires / Survey sampling techniques are quite useful in a way to estimate population parameterssuch as the population total when the large dimensional auxiliary data setis available. This thesis deals with the estimation of population total in presenceof ill-conditioned large data set.In the first chapter, we give some basic definitions that will be used in thelater chapters. The Horvitz-Thompson estimator is defined as an estimator whichdoes not use auxiliary variables. Along with, calibration technique is defined toincorporate the auxiliary variables for sake of improvement in the estimation ofpopulation totals for a fixed sample size.The second chapter is a part of a review article about ridge regression estimationas a remedy for the multicollinearity. We give a detailed review ofthe model-based, design-based and model-assisted scenarios for ridge estimation.These estimates give improved results in terms of MSE compared to the leastsquared estimates. Penalized calibration is also defined under survey sampling asan equivalent estimation technique to the ridge regression in the classical statisticscase. Simulation results confirm the improved estimation compared to theHorvitz-Thompson estimator.Another solution to the ill-conditioned large auxiliary data is given in terms ofprincipal components analysis in chapter three. Principal component regression isdefined and its use in survey sampling is explored. Some new types of principalcomponent calibration techniques are proposed such as calibration on the secondmoment of principal component variables, partial principal component calibrationand estimated principal component calibration to estimate a population total. Applicationof these techniques on real data advocates the use of these data reductiontechniques for the improved estimation of population totals
35

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.
36

Analyse de l'écoulement transitionnel sur un hydrofoil : application aux hydroliennes à axe transverse avec contrôle actif de l'angle de calage / Analysis of the transitional out ow on hydrofoil : application to vertical axis tidal turbines with active control of blade angle

Delafin, Pierre-Luc 12 September 2014 (has links)
Cette thèse vise à étudier les effets de la transition laminaire - turbulent et du contrôle actif de l’angle de calage des pales sur les performances de l’hydrolienne à axe transverse SHIVA (Système Hydrolien Intelligent à Variation d’Angle) développée à l’institut de Recherche de l’Ecole-Navale (IRENav). L’écoulement transitionnel autour d’un hydrofoil est, d’abord étudié en comparant des résultats expérimentaux et numériques. Les résultats expérimentaux ont été obtenus dans le tunnel hydrodynamique de l’IRENav. La transition s’effectue par un mécanisme de bulbe de séparation laminaire. Les comparaisons sont fondées sur l’analyse locale des pressions, des profils de vitesse dans la zone du bulbe de séparation laminaire et sur l’analyse des portances, traînées et moments mesurés sur un profil fixe et en mouvement de tangage forcé. Des calculs RANS 2D, avec et sans modèle de transition (ɣ— Reo), RANS 3D et LES 2.5D ont été menés afin de comparer les approches et évaluer la précision des simulations. L’étude montre que le modèle de transition ɣ — Reo améliore nettement les résultats obtenus par rapport à un modèle tout turbulent (k — w SST) dans le cas d’un écoulement transitionnel. L’influence de la transition laminaire - turbulent sur les performances de la turbine SHIVA est ensuite étudiée en comparant les résultats de calculs effectués avec et sans modèle de transition. L’approche est bidimensionnelle. L’utilisation du modèle de transition est intéressante au paramètre d’avance ʎ = 2 pour lequel les pales subissent un décrochage dynamique important. Le développement du tourbillon de bord d’attaque, favorisé par le modèle de transition, permet en effet une meilleure prédiction du décrochage. Les valeurs de ʎ supérieures sont moins concluantes du fait de la prédiction d’une tramée trop faible par le modèle de transition. Enfin, l’influence du contrôle actif du calage des pales sur les performances de la turbine est étudiée au point de fonctionnement optimal de la turbine ʎ = 3. Des lois de calage avancées sont développées, permettant d’agir indépendamment sur la moitié amont ou aval de la turbine. La meilleure loi testée permet une augmentation du coefficient de puissance de 34% tout en lissant la répartition du couple. / This work studies the laminar-turbulent transition and the pitch control effects on the performances of a vertical axis tidal turbine (SHIVA) developed at the French naval academy research institute. Firstly, experimental and numerical results are compared to study the transitional flow around a hydrofoil. The experiments were carried out in the hydrodynamic tunnel of the French naval academy research institute and the laminar-turbulent transition was triggered by a laminar separation bubble mechanism. Comparisons are based on the local analysis of pressure data and velocity profiles in the vicinity of the laminar separation bubble. Lift, drag and moment coefficients measured on a fixed hydrofoil and on a hydrofoil undergoing a pitching movement are also used for comparison. 2D RANS calculations carried out with or without a transition modal (ɣ — Reo), 3D RANS calculations and 2.5D LES calculations were run so as to assess the accuracy of each type of simulation. This study shows that the ‘y Reo transition modal clearly improves the accuracy of the results compared to a fully turbulent turbulence model (k— w SST) when considering a transitional flow. The influence of the laminar-turbulent transition on the performance of the SHIVA turbine is then studied. Results of 2D calculations run with and without transition model are compared. The use of the transition modal is relevant at the tip speed ratio value ʎ = 2 for which the blades undergo dynamic stall. The transition modal leads to a better prediction of the leading edge vortex development and then allows a better prediction of the dynamic stall. The use of the transition model at higher ʎ values is less relevant since the transition modal appears to predict a drag too low. Finally, the effect of the pitch control on the SHIVA turbine performance is .studied at ʎ = 3, for which the power coefficient is the highest. Advanced pitching laws are developed to modify the blades’ angle of attack independently on the upstream and downstream halves of the turbine. The best pitching law tested in this study leads to an improvement of the power coefficient by 34% and smooths the torque distribution.
37

Contribution à l'étude du comportement mécanique et hydromécanique du béton / Contribution to the study of mechanical and hydro-mechanical behaviors of concrete

Tran The, Truyen 22 September 2009 (has links)
Ce travail comprend des études concernant lendommagement, la rupture et leurs influences sur la perméabilité du béton. Des analyses théoriques et expérimentales ont été présentées pour mettre en évidence le mécanisme dinitiation et de propagation des fissures dans le béton, ainsi que lévolution de la perméabilité de ce matériau sous laction dune charge et de la température. Une étude bibliographique est dabord réalisée. Elle constituera une base de connaissance bien utile pour les problèmes étudiés dans ce travail. Les comportements mécaniques, les modèles constitutifs du béton, notamment les modèles dendommagement et de rupture, ont été analysés en détail. Le modèle Mazars a été choisi comme le modèle de référence pour le développement de nos recherches. Lévolution de la perméabilité du béton en fonction des charges mécaniques appliquées ou de la température est également abordée dans cette étude bibliographique. Un programme dessai a été réalisé pour déterminer les paramètres de ruptures de bétons ordinaires couramment utilisés au Vietnam. Lénergie de rupture, le facteur dintensité de contrainte et la longueur caractéristique des zones de rupture ont été définis comme des fonctions de la résistance en compression et de la taille des éprouvettes dessai. Une loi deffet déchelle est aussi établie pour les différents types bétons analysés. Lapproche non-locale dans lintégration de la loi de comportement a été introduite dans le code aux éléments finis Lagamine, afin de tenir compte de la localisation de la déformation dans les zones endommagées du béton. Des exemples de simulations ont montré lavantage du modèle dendommagement non-local. Une analyse de sensibilité des résultats numériques avec les paramètres dendommagement est réalisée et permet de déterminer ces paramètres par calage pour les bétons testés. Les jeux de paramètres ainsi obtenus ont été validés par comparaison entre les réponses numériques et expérimentales sur des poutres simples en béton armé. Un deuxième programme dessai a également été effectué dans ce travail pour étudier lévolution de la perméabilité du béton sous laction de la charge mécanique et de la température. Les valeurs de la perméabilité à leau et au gaz sont mesurées simultanément et permettent dobtenir une comparaison relative. Ces résultats expérimentaux accompagnés dautres résultats expérimentaux de la littérature ont été pris comme base pour la proposition des modèles mécaniques, thermiques et thermo-mécaniques dévolution de la perméabilité du béton. Lévolution de la perméabilité est considérée non seulement comme une fonction de lendommagement diffus, mais aussi de lendommagement localisé. Afin de calculer les valeurs de la perméabilité du béton fissuré, la loi de Poiseuille a été utilisée. Une technique est alors proposée afin de pouvoir utiliser cette loi dans une approche continue. Cette loi pourrait alors être utilisée pour déterminer la perméabilité à travers un milieu fissuré. Les lois dévolution de la perméabilité proposées ont été implémentées dans le code Lagamine. Des exemples de simulation ont été réalisés pour calculer la perméabilité structurelle à travers des structures en béton dune part sous chargement et dautre part sous chargement et température simultanément / This work concerns the study of the damage, the fracture and their effects on the permeability values of concrete. Theoretical and experimental analysis have been represented to clarify the mechanism of crack initiation and crack propagation in concrete as well as the evolution of permeability values of this material under the action of mechanical load and temperature. A literature preview was carried out first to have a good background of considered problems in this work. Mechanical behaviors, constitutive models, especially damage and fracture models have been analyzed in detail. The Mazars damage model has been chosen as the base to develop further researches. The permeability of concrete was also mentioned in this study based on the published results in literature. An experimental program has been carried out to determine fracture parameters of ordinary concretes commonly used in Vietnam. Fracture energy, stress intensity factor and characteristic length of fracture process zones were represented as functions of compressive resistance and structural dimensions. The size effect law was also established for considered concretes. Nonlocal approach of integral formula was added in finite elements code Lagamine to take into account the strain localization in damaged zones of concrete. Some examples of simulation were realized to prove the advantages of nonlocal damage model. The dependence of numerical results on damage parameters was taken as a basis to carry out a calibrating process of these parameters for considered ordinary concretes. The obtained sets of damage parameters have been validated by a comparison of numerical responses beside experimental ones of simple reinforced concrete beams. A second experimental program was also realized in this work to study the evolution of permeability of concrete under the action of mechanical loading and temperature. The values of water and gas permeability are measured in the same time to have a relative comparison of these ones. These experimental results together with experimental results in literature were taken as a basis of the proposition of some mechanical, thermo-mechanical models of fluid permeability of concrete. The evolution of permeability was considered not only as a function of diffuse damage but also localized damage. In order to calculate permeability values of cracked concrete, the Poiseuille law has been used, a technique was then proposed to be able to use this law in a continuous approach that could have a good prediction of permeability through cracked media. The proposed laws of permeability were implanted in Lagaminde code. Some examples of simulation have been carried out to calculate the structural permeability through concrete structures under mechanical action and under thermo-mechanical action
38

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.
39

Intégration multi-échelles des données de réservoir et quantification des incertitudes / Multi-scale reservoir data integration and uncertainty quantification

Gentilhomme, Théophile 28 May 2014 (has links)
Dans ce travail, nous proposons de suivre une approche multi-échelles pour simuler des propriétés spatiales des réservoirs, permettant d'intégrer des données directes (observation de puits) ou indirectes (sismique et données de production) de résolutions différentes. Deux paramétrisations sont utilisées pour résoudre ce problème: les ondelettes et les pyramides gaussiennes. A l'aide de ces paramétrisations, nous démontrons les avantages de l'approche multi-échelles sur deux types de problèmes d'estimations des incertitudes basés sur la minimisation d'une distance. Le premier problème traite de la simulation de propriétés à partir d'un algorithme de géostatistique multipoints. Il est montré que l'approche multi-échelles basée sur les pyramides gaussiennes améliore la qualité des réalisations générées, respecte davantage les données et réduit les temps de calculs par rapport à l'approche standard. Le second problème traite de la préservation des modèles a priori lors de l'assimilation des données d'historique de production. Pour re-paramétriser le problème, nous développons une transformée en ondelette 3D applicable à des grilles stratigraphiques complexes de réservoir, possédant des cellules mortes ou de volume négligeable. Afin d'estimer les incertitudes liées à l'aspect mal posé du problème inverse, une méthode d'optimisation basée ensemble est intégrée dans l'approche multi-échelles de calage historique. A l'aide de plusieurs exemples d'applications, nous montrons que l'inversion multi-échelles permet de mieux préserver les modèles a priori et est moins assujettie au bruit que les approches standards, tout en respectant aussi bien les données de conditionnement. / In this work, we propose to follow a multi-scale approach for spatial reservoir properties characterization using direct (well observations) and indirect (seismic and production history) data at different resolutions. Two decompositions are used to parameterize the problem: the wavelets and the Gaussian pyramids. Using these parameterizations, we show the advantages of the multi-scale approach with two uncertainty quantification problems based on minimization. The first one concerns the simulation of property fields from a multiple points geostatistics algorithm. It is shown that the multi-scale approach based on Gaussian pyramids improves the quality of the output realizations, the match of the conditioning data and the computational time compared to the standard approach. The second problem concerns the preservation of the prior models during the assimilation of the production history. In order to re-parameterize the problem, we develop a new 3D grid adaptive wavelet transform, which can be used on complex reservoir grids containing dead or zero volume cells. An ensemble-based optimization method is integrated in the multi-scale history matching approach, so that an estimation of the uncertainty is obtained at the end of the optimization. This method is applied on several application examples where we observe that the final realizations better preserve the spatial distribution of the prior models and are less noisy than the realizations updated using a standard approach, while matching the production data equally well.

Page generated in 0.038 seconds