• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 191
  • 39
  • 4
  • 1
  • Tagged with
  • 638
  • 217
  • 137
  • 108
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 47
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Contribution à la quantification des incertitudes portées par la variabilité spatiale des déchets radioactifs enterrés à Tchernobyl / Contribution to spatial variability uncertainty quantification of radioactive waste in Chernobyl

Nguyen, Huong Liên 14 December 2017 (has links)
Après l’accident de la centrale de Tchernobyl, environ 800 tranchées peu profondes ont été creusées dans la zone d’exclusion afin d’y enfouir des déchets radioactifs. Cependant, ces tranchées, construites dans des sables éoliens, ne constituent pas une barrière efficace contre la migration des radionucléides dans l’aquifère superficiel. La tranchée T22 sert de support pour étudier des questions générales : quelles sont les incertitudes sur le volume et l’activité des déchets contaminés, et sur la qualité des eaux en aval ?Les estimations antérieures de l’inventaire de la tranchée supposent linéaire la corrélation entre l’activité spécifique mesurée sur des échantillons de sol et le taux de comptage gamma in situ. Des simulations géostatistiques sont utilisées pour étudier cette corrélation, et sa sensibilité à la variabilité spatiale de l'activité ainsi qu'au milieu environnant. Si la corrélation peut effectivement être supposée linéaire, l'étude des données d’une campagne de terrain menée en septembre 2015 montre qu'il est préférable de cokriger l'activité par le comptage radiométrique plutôt que de transformer les données de comptage.L’inventaire en 137Cs présent dans la tranchée en 1999 est révisé ici puis comparé à une estimation antérieure. La profondeur de la tranchée est interpolée en utilisant conjointement les résultats de profils géoradar, et des données de sondages radiométriques forés dans la tranchée. Les résultats de cette nouvelle analyse géostatistique, complétée par des simulations, ont permis de quantifier l’incertitude sur le stock de 137Cs dans la tranchée.Enfin, un modèle hydrogéologique 2D non saturé est construit afin d’évaluer l’effet de la variabilité spatiale du terme source sur le panache de 90Sr généré par la tranchée T22. Ce modèle simule par ailleurs le battement de la nappe qui pourrait expliquer les différences observées entre les modèles antérieurs et les observations. Une analyse de sensibilité est conduite en dernier lieu afin d’évaluer l’influence des différents paramètres d’écoulement et de transport sur les chroniques de concentrations en 90Sr simulées au cours du temps. / Following the explosion at the Chernobyl nuclear power plant, about 800 shallow trenches were dug to bury radioactive waste in the exclusion zone. However, these trenches were built in permeable aeolian sand and do not prevent the migration of radionuclides in the superficial aquifer. Trench T22 allows us to explore general research problems such as the uncertainty linked to the volume and the activity of radioactive waste, and to the water quality in groundwater downstream the trench.Previous estimations of the trench inventory assume that the correlation between specific activity measured in soil samples and in situ count rate is linear. Geostatistical simulations are used to analyze this correlation and its sensitivity to the activity spatial variability and to its surrounding environment. If the correlation can be considered as linear, the study of field measurements undertaken in 2015 demonstrates that it is better to apply cokriging to estimate the activity by the count rate rather than transforming the count rate data.The inventory of 137Cs calculated for 1999 is then compared to a previous estimation. The trench boundaries are interpolated using the results of ground penetrating radar profiles and gamma logging carried on boreholes drilled into the trench. The new estimation is completed by geostatistical simulations and enables us to quantify the uncertainty of 137Cs trench inventory.Finally, the effect of the source term spatial variability is explored with the 90Sr migration modeling. The previous 90Sr transport model did not take into account the water table fluctuations which may cause some discrepancies between model predictions and field observations. They are thus reproduced in a 2D non saturated model. A sensitivity analysis on the flow and transport parameters as well as the source term variability is undertaken.
232

Electrical impedance tomography for void fraction measurements of harsh two-phase flows : prototype development and reconstruction techniques / Tomographie d'impédance électrique pour la mesure du taux de vide d'écoulements sous pression : developpement d'un prototype et de techniques de reconstruction

Dupre, Antoine 10 October 2017 (has links)
Les récentes avancées technologiques des matériels d’acquisition de données ont permis de réduire le temps d’acquisition d’image en tomographie électrique, ce qui offre des opportunités pour l’étude des écoulements diphasiques transitoires. Parmi les nombreux atouts de cette technique d’imagerie d’écoulements diphasiques, on peut citer son caractère non-intrusif, sa haute fréquence d’acquisition et son faible coût. Un ensemble d’électrodes placées sur le pourtour d’une conduite servent à transmettre une excitation électrique au milieu et à le sonder. Ainsi, la distribution des phases perturbe les champs électriques de manière caractéristique. L’objectif de cette thèse est d’évaluer le potentiel de la tomographie d’impédance électrique rapide. La première étape consiste au développement d’un prototype de capteur et à l’évaluation de sa performance par des essais simplifiés. L’architecture du système utilise un contrôle en potentiel du signal d’excitation et ne nécessite donc pas d’implémenter un module de conversion tension-courant. La seconde étape est la reconstruction de l’image à partir des données mesurées. L’approche qui a été considérée est de supposer une image approchée de la distribution des phases grâce à une identification du régime d’écoulement. Ainsi, le défi de résoudre un problème inverse fortement non-linéaire est simplifié. Une méthode d’identification de régimes d’écoulements horizontaux eau-air a été élaborée avec un module de tomographie de capacitance électrique et une boucle d’essais hydrauliques déjà éprouvés. Cette technique est en cours d’adaptation au prototype de tomographie d’impédance électrique rapide et en amélioration grâce à l’inclusion des régimes d’écoulements verticaux. En parallèle, une méthode de reconstruction d’image a été développée, basée sur l’algorithme NOSER et un postulat pseudo-2D. L’analyse des images reconstruites à partir d’un set d’expériences de référence procure un aperçu des avantages et des défauts de la méthode et du prototype. / Recent developments with data acquisition equipment have reduced the time required for image acquisition with electrical tomography, thereby bringing new opportunities for the study of fast-evolving two-phase flows. Amongst the numerous advantages of this imaging technique for multiphase flow related research are non-intrusiveness, high acquisition rates, low-cost and improved safety. A set of electrodes placed on the periphery of the pipe to be imaged is used to impose an electrical excitation and measure the system response. The distribution of phases inside the study volume distorts the electrical field in a characteristic manner. The objective of this thesis is to assess the potential of electrical impedance tomography at high acquisition rate. The first stage consists in developing a prototype sensor and assessing its performance with simplistic experiments. The system architecture employs voltage control of the excitation and therefore does not require the implementation of the conventional voltage-to-current converter module. A novel data collection method, the full scan strategy, is considered and provides correcting factors for the parasitic impedances in the system. The second stage is the image reconstruction from the measurement data. The approach considered in the thesis is to assume that flow regime identification techniques may provide valuable information on the phase distribution that can be injected in the inverse problem for imaging, thereby tackling the challenge of the non-linearity of the inverse problem. A method for horizontal air-water flow regime identification has been elaborated with an electrical capacitance tomography sensor and multiphase flow rig tried and tested. It is being adapted to the fast electrical impedance tomography prototype and upgraded to include vertical flow regimes. In parallel, an image reconstruction method has been developed based on the NOSER algorithm and a pseudo-2D postulate. The analysis of the reconstructed images for a set of benchmark experiments provide insights on the merits and deficiencies of the algorithm and of the prototype.
233

Sédimentation de suspensions non-colloïdales poly-dispersés et concentrées / Sedimentation of non-colloidal polydisperse and concentrated suspensions

Hernando, Louis 16 February 2012 (has links)
De la pâte à dentifrice au moût de fermentation en passant par la peinture, le lit d’une rivière, le propergol d’un réacteur de fusée et le sang, les suspensions sont présentes dans de nombreux usages de notre vie courante. La maîtrise de leur mise en œuvre notamment nécessite la compréhension de leur comportement et constitue un des challenges de la recherche. Dans le présent travail de thèse, nous nous sommes intéressés au processus de sédimentation de suspensions concentrées de particules non-colloïdales et inertes dont la distribution de taille est mono, bi ou tri-disperse. Deux types de sédimentation ont été étudiés : la décantation et l’alimentation continue. L’objectif est de mener une étude expérimentale et dans une moindre mesure numérique pour caractériser de la façon la plus complète possible la sédimentation avec une attention particulière à la structure de l’écoulement et du dépôt, aux profils de concentration et à la détermination des modes de sédimentation. Les moyens expérimentaux utilisés sont les techniques usuelles de mesure bidimensionnelle (vélocimétrie laser et visualisation directe) qui autorisent l’acquisition de données d’intérêt pour des configurations où les particules évoluent dans le plan. Ces techniques laser ont été améliorées pour permettre le suivi simultané de populations de différentes particules et l’accès à des grandeurs diverses telles que le champ de vitesse de l’écoulement, la fraction volumique locale, et les vitesses des divers fronts de sédimentation. En parallèle, un outil numérique simple a été construit, utilisant la Dynamique Stokesienne et saisissant l’essentiel des phénomènes physiques mis en jeu menant à la modélisation des interactions hydrodynamiques. / From toothpaste to must of fermentation passing by painting, bed of a river, propellant of an rocket engine and blood, suspensions are present in many uses of our everyday life. The control of their implementation requires comprehension of their behavior and constitutes one of the challenges of nowadays research. In this work of thesis, we were interested in the sedimentation process of concentrated suspensions of non-colloidal and inert particles whose size distribution is mono, bi or tri-disperse. Two types of sedimentation were studied: decantation and thickening. The objective is to do an experimental and in a lesser way numerical study to characterize sedimentation the most completly possible with a detailed attention to flow and deposit structure, concentration profiles and determination of sedimentation modes. Used experimental means are the usual techniques of two-dimensional measurement (laser velocimetry and direct visualization) which authorize the data acquisition for configurations where particles evolve in the plan. These laser techniques were improved to simultaneously follow various particles populations and access to various outpouts such as velocities field, local volumic fraction, and velocities of various sedimentation fronts. A simple numerical tool was also built using Stokesian Dynamics and seizing the main part of the physical phenomena driving sedimentation leading to the modeling of the hydrodynamic interactions.
234

Modélisation mathématique du micro-crédit / Non disponible

Mauk, Pheakdei 27 June 2013 (has links)
Le travail soumis commence par un aperçu du micro-crédit tel qu’il a été introduit au Bangladesh par M. Yunus. Puis on donne un modèle stochastique des retards de versement. Comme ces retards ne donnent pas lieu à une sanction financière, ils constituent, de fait, une baisse du taux réel de crédit. Ce taux est alors, lui-même, aléatoire. On calcule un taux espéré en fonction de la probabilité de retard de remboursement hebdomadaire. On déduit que ce taux espéré est d’environ 3.5% inférieur au taux (annoncé) du cas déterministe si l’on considère que 3% des retards atteignent 4 semaines. Le travail se poursuit par une étude statistique de données du micro-crédit en Thaïlande. On commence par présenter un modèle de régression logistique du taux de remboursement par rapport aux 23 variables mesurées sur un échantillon de 219 groupes d’emprunteurs. On présente ensuite une sélection des variables les plus pertinentes selon un critère AIC ou BIC par une méthode “backward stepwise”. Finalement des expériences sur des sous-échantillons montrent une bonne stabilité du choix des variables obtenues par la sélection. / This study is inspired from a real scenario of microcredit lending introduced in Bangladesh by Yunus. A stochastic model of random delays in repayment installments is then constructed. Since delays occur without financial penalty, the interest rate is obviously lower than the exact claimed. This rate then becomes a random variable corresponding to the random repayment time, in which simulation results of its distribution are provided. The expected rate is computed as a function of in-time installment probability. It is found around 3.5% lower than the exact one in the deterministic case when considering 3% of delay occurred within four weeks in real practice. The work is extended to a statistical analysis on data of microcredit in Thailand. It is started by presenting a logistic regression model of repayment outcome containing 23 input variables measured on a sample of 219 lending groups. Applying penalized criterion, AIC or BIC together with backward stepwise elimination procedure on the full model, a more parsimonious model kept only most relevant predictors is obtained. Finally, experiments on sub-samples show a stability of the chosen predictors obtained by the selection method.
235

Dynamics of neuronal networks / Dynamique des réseaux neuronaux

Kulkarni, Anirudh 28 September 2017 (has links)
Dans cette thèse, nous étudions le vaste domaine des neurosciences à travers des outils théoriques, numériques et expérimentaux. Nous étudions comment les modèles à taux de décharge peuvent être utilisés pour capturer différents phénomènes observés dans le cerveau. Nous étudions les régimes dynamiques des réseaux couplés de neurones excitateurs (E) et inhibiteurs (I): Nous utilisons une description fournie par un modèle à taux de décharge et la comparons avec les simulations numériques des réseaux de neurones à potentiel d'action décrits par le modèle EIF. Nous nous concentrons sur le régime où le réseau EI présente des oscillations, puis nous couplons deux de ces réseaux oscillants pour étudier la dynamique résultante. La description des différents régimes pour le cas de deux populations est utile pour comprendre la synchronisation d'une chaine de modules E-I et la propagation d'ondes observées dans le cerveau. Nous examinons également les modèles à taux de décharge pour décrire l'adaptation sensorielle: Nous proposons un modèle de ce type pour décrire l'illusion du mouvement consécutif («motion after effect», (MAE)) dans la larve du poisson zèbre. Nous comparons le modèle à taux de décharge avec des données neuronales et comportementales nouvelles. / In this thesis, we investigate the vast field of neuroscience through theoretical, numerical and experimental tools. We study how rate models can be used to capture various phenomena observed in the brain. We study the dynamical regimes of coupled networks of excitatory (E) and inhibitory neurons (I) using a rate model description and compare with numerical simulations of networks of neurons described by the EIF model. We focus on the regime where the EI network exhibits oscillations and then couple two of these oscillating networks to study the resulting dynamics. The description of the different regimes for the case of two populations is helpful to understand the synchronization of a chain of E-I modules and propagation of waves observed in the brain. We also look at rate models of sensory adaptation. We propose one such model to describe the illusion of motion after effect in the zebrafish larva. We compare this rate model with newly obtained behavioural and neuronal data in the zebrafish larva.
236

Essays in Financial Economics

Koulischer, Francois 24 March 2016 (has links)
The financial crisis that started in 2007 has seen central banks play an unprecedented role both to ensure financial stability and to support economic activity. While the importance of the central bank in ensuring financial stability is well known (see e.g. Padoa-Schioppa (2014)), the unprecedented nature of the financial crisis led central banks to resort to new instruments for which the literature offered little guidance. This thesis aims to bridge this gap, using both theory and data to better understand one of the main instruments used by central banks: collateralized loans. The general contribution of the thesis is thus both retrospective and forward looking. On a retrospective point of view, it helps understanding the actions of the central bank during the crisis and the mechanisms involved. Looking forward, a better understanding of the tools used during the crisis allows to better inform future policies.The first chapter starts from the observation that the literature, starting with Bagehot (1873), has generally assumed that the central bank should lend against high quality collateral. However in the 2007-2013 crisis central banks lent mostly against low quality collateral. In this chapter, we explore when it is efficient for the central bank to relax its collateral policy. In our model, a commercial bank funds projects in the real economy by borrowing against collateral from the interbank market or the central bank. While collateral prevents the bank from shirking (in the spirit of Holmstrom and Tirole (2011)), it is costly to use as its value is lower for investors and the central bank than for the bank. We find that when the bank has high levels of available collateral, it borrows in the interbank market against low collateral requirements so that the collateral policy of the central bank has no impact on banks' borrowing. However, when the amount of available collateral falls below a threshold, the lack of collateral prevents borrowing. In this case, the collateral policy of the central bank can affect lending, and it can therefore be optimal for the central bank to relax its collateral requirements to avoid the credit crunch.The second chapter focuses on collateralized loans in the context of the euro area. According to the literature on optimum currency area, one of the main drawbacks of currency unions is the inability for the central bank to accommodate asymmetric shocks with its interest rate policy. Suppose that there are 2 countries in an economy and one suffers a negative shock while the other has a positive shock. Theory would suggest an accommodative policy - low interest rates - in the first country and a restrictive policy - high interest rates - in the second one. This is however impossible in a currency union because the interest rate must be the same for both countries (Mundell 1961, McKinnon 1963, de Grauwe 2012). In this chapter I show that collateral policy can accommodate asymmetric shocks. I extend the model of collateralized lending of the first chapter to two banks A and B and two collateral types 1 and 2 .I also introduce a central bank deposit facility which allows the interest rate instrument to be compared with the collateral policy instrument in the context of a currency area hit by asymmetric shocks. Macroeconomic shocks impact the investment opportunities available to banks and the value of their collateral and the central bank seeks to steer economy rates towards a target level. I show that when banks have different collateral portfolios (as in a monetary union where banks invest in the local economy), an asymmetric shock on the quality and value of their collateral can increase interest rates in the country hit by the negative shock while keeping them unchanged in the country with a positive shock.The third chapter provides an empirical illustration of this “collateral channel” of open market operations. We use data on assets pledged by banks to the ECB from 2009 to 2011 to quantify the “collateral substitution / smoother transmission of monetary policy” trade-off faced by the central bank. We build an empirical model of collateral choice that is similar in spirit to the model on institutional demand for financial assets of Koijen (2014). We show how the haircut of the central bank can affect the relative cost of pledging collateral to the central bank and how this cost can be estimated using the amount of assets pledged by banks. Our model allows to perform a broad set of policy counterfactuals. For example, we use the recovered coefficient to assess how a 5% haircut increase on all collateral belonging to a specific asset class (e.g. government bonds or ABS) would affect the type of collateral used at the central bank. The final chapter focuses on the use of loans as collateral by banks in the euro area. While collateral is generally viewed as consisting of liquid and safe assets such as government bonds, we show that banks in Europe do use bank loans as collateral. We identify two purposes of bank loan collateral: funding and liquidity purposes. The main distinction between the two purposes is with respect to the maturity of the instruments involved: liquidity purposes refer to the use of bank loans as collateral to obtain short term liquidity and manage unexpected liquidity shocks. In practice the central bank is the main acceptor of these collateral. The second type of use is for funding purposes, in which case bank loans are used as collateral in ABSs or covered bonds. The collateral in these transactions allow banks to obtain a lower long-term funding cost. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
237

Utilisation du taux d'erreur binaire pour améliorer la qualité de service dans les réseaux ad hoc / Using bit error rate to improve quality of service in ad hoc networks

Yélémou, Tiguiane 18 December 2012 (has links)
Dans les réseaux sans fil ad hoc, les liens de communication sont sujets à un taux d'erreurimportant. Dans ce contexte, le routage joue un rôle stratégique pour augmenter les performancesdans les transmissions. Dans nos études, par une approche cross-layer, nous prenons en compte lafiabilité des liens dans le choix des routes. Pour cela, dans un premier temps, nous construisonsdeux nouvelles métriques, l'une basée sur le taux d'erreur binaire (au niveau couche physique) etl'autre, plus adaptée à la mesure, sur le nombre de retransmissions (au niveau couche MAC).Ensuite, pour exploiter ces métriques lors du calcul de routes, nous adaptons les algorithmes à labase des protocoles de routage.Les trois familles de protocoles de routage ont été traitées : les protocoles pro-actifs où chaquenoeud a une vision globale du réseau grâce aux échanges périodiques de messages de contrôle detopologie ; les protocoles réactifs où, avant de commencer ses transmissions de données, chaquenoeud doit initier un processus de recherche de route ; les protocoles hybrides qui mixent les deuxapproches.Pour tester l'effectivité de nos améliorations, nous utilisons le simulateur NS2 enrichi par unmodèle de propagation et un modèle de mobilité réalistes. Les paramètres de performance tels quele délai, le taux de livraison de paquets et la charge de routage sont mesurés dans plusieursscénarios représentatifs des conditions d'utilisation. Les résultats obtenus montrent une améliorationsignificative des protocoles standards dans un contexte de qualité de service. / In ad hoc wireless networks, links are error-prone. In this context, routing plays a decisive role inimproving transmission performances. In our studies, by a cross-layer approach, we take intoaccount the reliability of links in route choice. For this, first, we concept two new metrics, onebased on bit error rate (at physical layer) and the other, more suitable for the measurement, onnumber of retransmissions (at MAC layer). Then, to exploit these metrics when determining routes,we adapt the algorithms based routing protocols.The three families of routing protocols have been addressed: proactive protocols where eachnode has a global view of the network through periodic exchanges of topology control messages;reactive protocols where, before starting data transmission, each node must initiate a routediscovery process; hybrid protocols which mix the two approaches.To test the effectiveness of our enhancements, we use the simulator NS.2 enhanced by arealistic propagation model and a realistic mobility model. Performance parameters such as delay,packets delivery ratio and routing load are measured in several scenarios including mobility andmulti-communication. The results show a significant improvement of standard protocols in thequality of service context.
238

Modélisation de la combustion turbulente diphasique par une approche eulérienne-lagrangienne avec prise en compte des phénomènes transitoires / Two-phase flows turbulent combustion modelling based on an eulerian-lagrangian approach including transient effects

Gomet, Laurent 04 December 2013 (has links)
L'allumage d'ergols injectés dans une chambre de combustion, la propagation du noyau de flamme puis sa stabilisation sont autant de paramètres déterminants pour la conception d'un moteur fusée. Pour ce type d'application, il est nécessaire - du point de vue de la modélisation - de tenir compte du couplage existant entre les effets de compressibilité, les processus de mélange turbulent ainsi que de cinétique chimique, dans un environnement diphasique puisque les ergols sont injectés à l'état liquide. Un modèle Lagrangien a été implanté dans le code de calcul compressible N3S-Natur afin de disposer d'un outil numérique capable de simuler le transitoire d'allumage d'un moteur fusée. La physique représentative de chacun des processus physiques impliqués pendant la phase d'allumage a été incorporée puis validée sur des configurations académiques. Ce travail a permis de mettre en évidence l'importance de la description du mélange à petites échelles pour capturer correctement le développement de la flamme. Il a aussi mis en exergue la nécessité de prendre en compte le transitoire thermique des gouttes d'oxygène liquide afin de reproduire fidèlement sa stabilisation. Enfin, il a nécessité l'extension de la notion de fraction de mélange à des cas pratiques présentant plus de deux entrées afin d'être en mesure de simuler la propagation de l'allumage sur la plaque d'injection. Cette approche basée sur l'introduction d'un injecteur fictif est non seulement utile pour la simulation de l'allumage des moteurs-fusées mais peut aussi être employée dans tout autre système impliquant le mélange entre des courants de réactifs issus de deux entrées ou plus. / In the field of liquid rocket propulsion, ignition, propagation and stabilization of the flame are of first importance for the design of the engine. Computational fluid dynamics (CFD) solvers may provide a great deal of help to proceed with the primary design choice but need to be fed with suited physical models. Important modelling efforts are therefore required to provide reliable computational representations able to take into account compressibility effects, turbulent mixing and chemical kinetics in two-phase flows since ergols are injected at the liquid state. A Lagrangian model has been implemented in the compressible solver N3S-Natur so as to obtain a computational tool able to compute the transient ignition of rocket engines. The physical processes involved at each step of this ignition sequence have been integrated and validated on academically configurations. Three significant contributions rose from this work. First of all, it is highlighted that the description of the micro-mixing is of first importance to correctly capture the flame development. This study also emphasized the need to consider the transient heating of liquid oxygen droplets in order to accurately compute the flame stabilization. Finally, the notion of mixture fraction must be extended to practical devices implying more than two inlets. The proposed approach which is based on the introduction of a fictive injector is not only well suited to rocket engine ignition application but also to deal with other practical devices implying two inlets and more.
239

Modélisation de la cinétique de gazéification étagée de la biomasse tropicale : cas des balles de riz et des rafles de maïs / Modeling of the staged gasification kinetic of tropical biomass : case of rice husks and corn cobs

Adamon, Gildas David Farid 12 May 2017 (has links)
Les essais de gazéification effectués dans le cadre de cette étude ont été réalisés à l’aide d’une installation instrumentée et équipée d’un réacteur à lit fixe en utilisant du dioxyde de carbone d’une part, et de la vapeur d’eau d’autre part, comme réactifs. Dans cette étude, nous avons considéré le procédé de gazéification étagée. Par ailleurs, l’étude concernant la disponibilité de la ressource, effectuée sur dix ans, nous a permis de sélectionner deux résidus agricoles, en tenant compte de leur disponibilité dans le temps, l’absence de conflit nutritionnel ainsi que de leurs caractéristiques physicochimiques... A l’issue de cette étude, deux résidus agricoles ont été sélectionnés : les balles de riz et les rafles de maïs. L’étude de la pyrolyse de ces deux biomasses a été effectuée dans un four à moufle à une température de 450 °C pour un temps de séjour de 45 minutes. Un modèle mathématique basé sur la méthode de Newton a été proposé pour estimer le rendement en cokes des balles de riz et des rafles de maïs en fonction de la température, pour un temps de séjour fixé. Nous avons également procédé à une caractérisation physicochimique de ces deux résidus agricoles ainsi que de leurs cokes de pyrolyse. Plusieurs essais de pyrolyse ont également été réalisés en ATG afin de déterminer l’ordre réel des réactions de décomposition, par pyrolyse, de ces deux biomasses, en fonction de la température. Pour les essais de gazéification, ils ont été réalisés sur le coke de pyrolyse des deux biomasses retenues, à l’aide d’une installation équipée d’un réacteur à lit fixe d’une part, ainsi que par analyse thermogravimétrique d’autre part. Plusieurs modèles cinétiques (VRM, SCM et RPM) ont été utilisés pour modéliser la cinétique de gazéification des balles de riz et des rafles de maïs avec du dioxyde de carbone et de la vapeur d’eau. Il ressort que le modèle RPM est le plus adapté des trois modèles étudiés pour simuler au mieux la gazéification du charbon de balles de riz et de rafles de maïs dans les conditions opératoires étudiées dans la présente étude. Ainsi, les énergies d’activation obtenues sont respectivement de 165,8 kJ/mol et de 152,9 kJ/mol avec le dioxyde de carbone et la vapeur d’eau pour les balles de riz pendant que le facteur exponentiel varie de 2595.4 s-1 à 3473.4 s-1 avec des valeurs respectives du paramètre structural Ψ=3,8 pour la réaction de Boudouard et Ψ= 2.16 pour la vapogazéification. Cependant, les énergies d’activation obtenues pour les rafles de maïs sont respectivement de 114,4 kJ/mol et de 105,5 kJ/mol avec le dioxyde de carbone et la vapeur d’eau pendant que le facteur exponentiel varie de 13,9 s-1 à 18,3 s-1avec des valeurs respectives du paramètre structural Ψ=12,3 pour la réaction de Boudouard et Ψ= 8,68 pour la vapogazéification. / The gasification tests in this study were carried out using an instrumented installation equipped with a fixed bed reactor using carbon dioxide and water steam, as reagents. In this study, we considered the stepped gasification process. In addition, the ten-year resource availability study allowed us to select two agricultural residues, taking into account their availability over time, the absence of nutritional conflict and their physicochemical characteristics… At the end of this study, two agricultural residues were selected: rice husks and corn cobs. The pyrolysis of these two biomasses was carried out in a muffle furnace at a temperature of 450 °C for a residence time of 45 minutes. A mathematical model based on the Newton method has been proposed to estimate the coke yield of rice husk and corn cobs as a function of temperature, for a fixed residence time. We also carried out a physicochemical characterization of these two agricultural residues as well as their pyrolysis cokes. Several pyrolysis tests have also been carried out in ATG in order to determine the real order of the decomposition reactions by pyrolysis, of these two biomasses, as a function of temperature. For the gasification tests, they were carried out on the pyrolysis coke of the two retained biomasses, using an installation equipped with a fixed-bed reactor on the one hand, and by thermogravimetric analysis of another hand. Several kinetic models (VRM, SCM and RPM) were used to model the gasification reaction kinetics of rice husk and corn cobs with carbon dioxide and water steam. It appears that the RPM model is the most suitable of the three models studied to best simulate the gasification reaction of char from rice husk and corn cobs under the operating conditions studied in this study. Thus, the activation energies obtained are respectively 165.8 kJ/mol and 152.9 kJ/mol with carbon dioxide and water steam for rice husk while the exponential factor varies from 2595.4 s-1 to 3473.4 s-1 with respective values of the structural parameter Ψ = 3.8 for the Boudouard reaction and Ψ = 2.16 for the water steam gasification. However, the activation energies obtained for corn cobs are 114.4 kJ/mol and 105.5kJ/mol respectively with carbon dioxide and water steam while the exponential factor varies from 13.9 s-1 to 18.3 s-1 with respective values of the structural parameter Ψ = 12.3 for the Boudouard reaction and Ψ = 8.68 for the water steam gasification.
240

Étude en deux dimensions de l'effet du taux de déformation sur la limite élastique de l'acier structural

Sin, Ousphea January 2017 (has links)
L’évaluation de la résistance probable des éléments dissipatifs d’énergie sismique lors du dimensionnement parasismique des charpentes d’acier au Canada repose sur la limite élastique probable de l’acier. Les taux de déformation élevés dans les éléments dissipatifs au cours d’un tremblement de terre ont pour effet d’augmenter la limite élastique de l’acier dans ces éléments. Le comportement dynamique de l’acier étudié par le biais d’essais uniaxiaux conventionnels ne permettent pas nécessairement de valider le comportement d’un élément dissipateur d’énergie sismique pouvant être sollicité selon deux dimensions. Les cadres contreventés excentriques, où le lien ductile subi des déformations biaxiales par les effets combinés du cisaillement et de la flexion en est un exemple. Le projet de recherche présenté dans ce mémoire de maîtrise vise à évaluer l’effet du taux de déformation sur la limite élastique de l’acier structural de grade 350W lors de sollicitations impliquant un état planaire de contrainte. La conception d’une éprouvette cruciforme optimale en acier basée sur des recommandations proposés dans la littérature et sur des analyses par éléments finis a été effectuée. Six essais de traction uniaxiaux et quatre essais de traction équibiaxiaux sur éprouvettes cruciformes ont été réalisés à différents taux de déformation entre 0.0001/sec et 2.4/sec. Durant ces essais, les déformations moyennes à travers la partie centrale des éprouvettes ont été mesurées par un système de potentiomètre conçu dans le cadre de ce projet. Quatre essais biaxiaux sur éprouvettes cruciformes selon des rapports de déformation distincts ont également été réalisés à un taux de déformation quasi-statique. Chaque essai a été simulé numériquement à l’aide d’un modèle éléments finis dans lequel la limite élastique a été calibrée afin de reproduire le comportement observé lors des essais. Le critère d’écoulement plastique de Von Mises ainsi qu’une formulation d’écrouissage non-linéaire ont été adoptés lors des analyses numériques. Les modèles calibrées ont permis de déterminer la limite élastique dynamique observée lors de chaque essai. Les résultats des analyses confirment que la limite élastique de l’acier augmente en fonction du taux effectif de déformation. Sept lois de prédiction de la limite élastique de l’acier ont été étudiées. Trois lois ont permis de représenter la limite élastique dynamique de l’acier testé dans la plage des taux de déformation étudiée. La loi qui semble la mieux adaptée à être implémentée dans un logiciel de modélisation a été identifiée. La loi de Drysdale et Zak utilisé dans le logiciel ADINA ne permet pas d’évaluer correctement le comportement dynamique observé lors des essais impliquant un taux élevé de déformation. Une étude numérique préliminaire sur le lien ductile est également présentée dans ce mémoire.

Page generated in 0.0298 seconds