• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Conception et développement d'un mailleur énergétique adaptatif pour la génération des bibliothèques multigroupes des codes de transport

Mosca, Pietro 09 December 2009 (has links) (PDF)
Les codes déterministes de transport résolvent l'équation stationnaire de Boltzmann dans un formalisme discrétisé en énergie appelé multi- groupe. La transformation des données continues en multigroupes est obtenue en moyennant les sections fortement variables des noyaux ré- sonnants avec le flux solution des modèles physiques d'autoprotection et celles des noyaux non résonnants avec le spectre énergétique représentatif d'un type de réacteur. Jusqu'ici l'erreur induite par ce type de traitement ne pouvait qu'être évaluée a posteriori. Pour y remédier, nous avons étu- dié dans cette thèse un ensemble de méthodes, permettant de contrôler a priori la précision et le coût du calcul de transport multigroupe. L'optimisation du maillage énergétique est réalisée selon un proces- sus en deux étapes : la création d'un maillage de référence et sa conden- sation optimisée. Dans la première étape, en raffinant localement et glo- balement le maillage énergétique, on cherche une solution multigroupe sur un maillage énergétique fin avec une autoprotection en sous-groupes de précision équivalente au solveur de référence (Monte Carlo ou déter- ministe ponctuel). Dans la deuxième étape, une fois fixé le nombre de groupes en fonction du coût admissible du calcul et choisis les modèles d'autoprotection les plus adéquats pour la filière à traiter, on cherche les meilleures bornes du maillage de référence minimisant les erreurs des taux de réaction grâce à l'algorithme stochastique d'optimisation des es- saims particulaires. Cette nouvelle approche a permis de définir des nouveaux maillages pour la filière rapide aussi précis que les maillages actuels mais présentant un nombre inférieur de groupes.
192

Contributions à la simulation des évènements rares dans les systèmes complexes

Morio, Jérôme 09 December 2013 (has links) (PDF)
Les trois principales parties qui composent ce dossier de synthèse HDR présentent, dans un premier temps, le contexte encadrant ces recherches et précisent les différents thèmes scientifiques abordés au cours de celles-ci, puis détaillent mes activités de publications, de communications, d'enseignement, d'administration de la recherche et enfin d'encadrement. Dans une seconde partie, ce mémoire aborde certains aboutissements de mes recherches, ici certaines contributions scientifiques que j'ai proposées, développant les méthodes d'estimation d'évènements rares dans les systèmes complexes. Enfin, un choix représentatif de cinq publications dont je suis co-auteur est proposé en conclusion de ce mémoire.
193

Développement de sources lasers à l'état solide pour la réalisation d'une horloge optique basée sur l'atome d'argent

Louyer, Yann 14 November 2003 (has links) (PDF)
Ce travail de thèse s'inscrit dans<br />le cadre du développement d'une horloge optique basée sur une<br />transition à deux photons de 661 nm de l'Ag de largeur naturelle<br />~1 Hz. Afin de profiter du facteur de qualité de la<br />résonance, il faudra travailler sur un échantillon d'atomes<br />refroidis par laser, la longueur d'onde nécessaire étant de 328<br />nm. Ce mémoire concerne plus précisément la mise au point de<br />sources lasers solides pour améliorer la fiabilité de l'expérience<br />actuelle. Le cristal laser de Nd:YLF, pompé par diode laser,<br />permet d'accéder aux longueurs d'onde 1322 nm et 1312 nm. Le<br />doublage en fréquence de la première source fournira la radiation<br />à 661 nm tandis que deux étapes de doublage permettront d'obtenir,<br />à partir des photons à 1312 nm, une onde à 656 nm puis<br />une onde à 328 nm. Nous avons développé un modèle théorique, tenant<br />compte des effets thermiques et notamment des processus de<br />recombinaison Auger, afin de dimensionner différentes<br />configurations laser à tester (cavité linéaire, à mode hélicoïdal,<br />cavité en anneau réinjectée). Grâce à la dernière, nous avons<br />réalisé des sources continues, monomodes, d'environ 2 W, à 1322<br />nm et à 1312 nm. Ces cavités se prêtant au doublage de fréquence,<br />nous avons obtenu des puissances de 440 mW à 661 nm et 340 mW à<br />656 nm. Par ailleurs, une étude théorique des probabilités de<br />transition de l'atome d'argent à l'aide des codes de Cowan a été<br />entreprise, afin d'une part de chiffrer l'ordre de grandeur de la<br />puissance laser nécessaire et d'autre part, d'estimer la durée de<br />vie du niveau métastable, jusqu'alors obtenue<br />uniquement par comparaison<br />avec une transition quadrupolaire de l'ion mercure.
194

Staffing Optimization with Chance Constraints in Call Centers

Ta, Thuy Anh 12 1900 (has links)
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation. / Call centers are key components of almost any large organization. The problem of labor management has received a great deal of attention in the literature. A typical formulation of the staffing problem is in terms of infinite-horizon performance measures. The method of combining simulation and optimization is used to solve this staffing problem. In this thesis, we consider a problem of staffing call centers with respect to chance constraints. We introduce chance-constrained formulations of the scheduling problem which requires that the quality of service (QoS) constraints are met with high probability. We define a sample average approximation of this problem in a multiskill setting. We prove the convergence of the optimal solution of the sample-average problem to that of the original problem when the sample size increases. For the special case where we consider the staffing problem and all agents have all skills (a single group of agents), we design three simulation-based optimization methods for the sample problem. Given a starting solution, we increase the staffings in periods where the constraints are violated, and decrease the number of agents in several periods where decrease is acceptable, as much as possible, provided that the constraints are still satisfied. For the call center models in our numerical experiment, these algorithms give good solutions, i.e., most constraints are satisfied, and we cannot decrease any agent in any period to obtain better results. One advantage of these algorithms, compared with other methods, that they are very easy to implement.
195

Recyclage des candidats dans l'algorithme Metropolis à essais multiples

Groiez, Assia 03 1900 (has links)
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît. / Markov Chain Monte Carlo (MCMC) algorithms are methods that are used for sampling from probability distributions. These tools are based on the path of a Markov chain whose stationary distribution is the distribution to be sampled. Given their relative ease of application, they are one of the most popular approaches in the statistical community, especially in Bayesian analysis. These methods are very popular for sampling from complex and/or high dimensional probability distributions. Since the appearance of the first MCMC method in 1953 (the Metropolis algorithm, see [10]), the interest for these methods, as well as the range of algorithms available, continue to increase from one year to another. Although the Metropolis-Hastings algorithm (see [8]) can be considered as one of the most general Markov chain Monte Carlo algorithms, it is also one of the easiest to understand and explain, making it an ideal algorithm for beginners. As such, it has been studied by several researchers. The multiple-try Metropolis (MTM) algorithm , proposed by [9], is considered as one interesting development in this field, but unfortunately its implementation is quite expensive (in terms of time). Recently, a new algorithm was developed by [1]. This method is named the revisited multiple-try Metropolis algorithm (MTM revisited), which is obtained by expressing the MTM method as a Metropolis-Hastings algorithm on an extended space. The objective of this work is to first present MCMC methods, and subsequently study and analyze the Metropolis-Hastings and standard MTM algorithms to allow readers a better perspective on the implementation of these methods. A second objective is to explore the opportunities and disadvantages of the revisited MTM algorithm to see if it meets the expectations of the statistical community. We finally attempt to fight the sedentarity of the revisited MTM algorithm, which leads to a new algorithm. The latter performs efficiently when the number of generated candidates in a given iteration is small, but the performance of this new algorithm then deteriorates as the number of candidates in a given iteration increases.
196

Modélisation et simulation des déplacements de la vie quotidienne dans un habitat intelligent pour la santé / Modeling and simulation of the displacement of daily life in a health smart home

Hadidi, Tareq 01 February 2011 (has links)
Pour répondre au besoin de 14 millions de personnes, dont près de 10% vit en situation de perte d'autonomie ou de grande dépendance, notre société va devoir trouver rapidement des solutions de prise en charge. La télémédecine, et plus particulièrement la télésurveillance médicale à domicile, constitue aujourd'hui une solution pour pallier le manque de professionnels de santé face au fort accroissement de la population âgée en Europe. Dans ce contexte, nous nous intéressons au HIS -« Habitat intelligent pour la Santé ». Le travail de la thèse a été de développer un outil informatique de simulation des activités (déplacements) d'une personne suivie à l'intérieur d'un HIS. La création d'un simulateur est vue comme un moyen d'améliorer les performances et la qualité de service de la télésurveillance à domicile. Nous avons testé plusieurs méthodes de simulations (réseaux de neurones artificiel, chaines de Markov, urnes de Polya) et retenu les chaines de Markov cachées (HMM). Le simulateur a été implémenté en MATLAB à partir de la modélisation de données réelles provenant d'HIS occupés par des personnes âgées, dont certaines vivent seules. La validation des données produites par le simulateur a été effectuée par mesure de corrélation surfacique entre les données réelles et les données simulées. Ce travail ouvre la voie à la production de données d'activités simulées suivant un profil type de patient, sans passer par de longues et couteuses expérimentations de terrain. / Our societies will have to meet rapidly the needs of 14 million people who often live in situations of loss of autonomy or dependence with quick solutions supported. Telemedicine, and especially the home telemonitoring, is now a solution to alleviate the shortage of health professionals confronted to the great increase in population in Europe. In this context, we investigated the HIS "Smart Habitat for Health". The work of this thesis was to develop a digital simulator of activities (displacements) of a person followed within a HIS. The creation of a simulator is seen as a solution to improve performance and quality of service of home telemonitoring. We tested several methods of simulation (artificial neural networks, Markov chains, Polya urns) and retained the hidden Markov (HMM). This simulator was implemented under MATLAB, after the modeling of data collected in HIS occupied by elderly people, some living alone. Validation of data generated by the simulator was performed by measuring surface correlation between real and simulated data. This work paves the way for production activity data simulated according to a profile type of patient, without going through lengthy and costly field experiments.
197

Adaptation des techniques actuelles de scoring aux besoins d'une institution de crédit : le CFCAL-Banque / Adaptation of current scoring techniques to the needs of a credit institution : the Crédit Foncier et Communal d'Alsace et de Lorraine (CFCAL-banque)

Kouassi, Komlan Prosper 26 July 2013 (has links)
Les institutions financières sont, dans l’exercice de leurs fonctions, confrontées à divers risques, entre autres le risque de crédit, le risque de marché et le risque opérationnel. L’instabilité de ces facteurs fragilise ces institutions et les rend vulnérables aux risques financiers qu’elles doivent, pour leur survie, être à même d’identifier, analyser, quantifier et gérer convenablement. Parmi ces risques, celui lié au crédit est le plus redouté par les banques compte tenu de sa capacité à générer une crise systémique. La probabilité de passage d’un individu d’un état non risqué à un état risqué est ainsi au cœur de nombreuses questions économiques. Dans les institutions de crédit, cette problématique se traduit par la probabilité qu’un emprunteur passe d’un état de "bon risque" à un état de "mauvais risque". Pour cette quantification, les institutions de crédit recourent de plus en plus à des modèles de credit-scoring. Cette thèse porte sur les techniques actuelles de credit-scoring adaptées aux besoins d’une institution de crédit, le CFCAL-banque, spécialisé dans les prêts garantis par hypothèques. Nous présentons en particulier deux modèles non paramétriques (SVM et GAM) dont nous comparons les performances en termes de classification avec celles du modèle logit traditionnellement utilisé dans les banques. Nos résultats montrent que les SVM sont plus performants si l’on s’intéresse uniquement à la capacité de prévision globale. Ils exhibent toutefois des sensibilités inférieures à celles des modèles logit et GAM. En d’autres termes, ils prévoient moins bien les emprunteurs défaillants. Dans l’état actuel de nos recherches, nous préconisons les modèles GAM qui ont certes une capacité de prévision globale moindre que les SVM, mais qui donnent des sensibilités, des spécificités et des performances de prévision plus équilibrées. En mettant en lumière des modèles ciblés de scoring de crédit, en les appliquant sur des données réelles de crédits hypothécaires, et en les confrontant au travers de leurs performances de classification, cette thèse apporte une contribution empirique à la recherche relative aux modèles de credit-scoring. / Financial institutions face in their functions a variety of risks such as credit, market and operational risk. These risks are not only related to the nature of the activities they perform, but also depend on predictable external factors. The instability of these factors makes them vulnerable to financial risks that they must appropriately identify, analyze, quantify and manage. Among these risks, credit risk is the most prominent due to its ability to generate a systemic crisis. The probability for an individual to switch from a risked to a riskless state is thus a central point to many economic issues. In credit institution, this problem is reflected in the probability for a borrower to switch from a state of “good risk” to a state of “bad risk”. For this quantification, banks increasingly rely on credit-scoring models. This thesis focuses on the current credit-scoring techniques tailored to the needs of a credit institution: the CFCAL-banque specialized in mortgage credits. We particularly present two nonparametric models (SVM and GAM) and compare their performance in terms of classification to those of logit model traditionally used in banks. Our results show that SVM are more effective if we only focus on the global prediction performance of the models. However, SVM models give lower sensitivities than logit and GAM models. In other words the predictions of SVM models on defaulted borrowers are not satisfactory as those of logit or GAM models. In the present state of our research, even GAM models have lower global prediction capabilities, we recommend these models that give more balanced sensitivities, specificities and performance prediction. This thesis is not completely exhaustive about the scoring techniques for credit risk management. By trying to highlight targeted credit scoring models, adapt and apply them on real mortgage data, and compare their performance through classification, this thesis provides an empirical and methodological contribution to research on scoring models for credit risk management.
198

Forecasting of flash-flood human impacts integrating the social vulnerability dynamics / Prévision des impacts humains conséquences des crues rapides intégrant le concept de vulnérabilité sociale dynamique

Terti, Galateia 27 March 2017 (has links)
Au XXIe siècle, la prévision de l'aléa hydrométéorologique et des impacts associés aux crues rapides demeurent un défi pour les prévisionnistes et les services de secours. Les mesures structurelles et / ou les avancées des systèmes de prévision hydrologique ne garantissent pas, à elles seules, la réduction des décès lors de ces phénomènes d'inondation rapide. La littérature souligne la nécessité d'intégrer d'autres facteurs, liés aux processus de vulnérabilité sociaux et comportementaux, afin de mieux prendre en compte les risques encourus par les populations lors de ces épisodes extrêmes. Cette dissertation conduit une analyse théorique couplés à ceux de une analyse des accidents historiques mortels afin d'expliquer les interactions qui existent entre les processus hydrométéorologiques et sociaux responsables de l'apparition de vulnérabilités humaines lors de crues rapides aux États-Unis. Des données d'enquêtes liées aux crues rapides sont examinées afin d'élaborer un système de classification des circonstances du décès (en voiture, à l'extérieur, à proximité d'un cours d'eau, dans un camping, dans un bâtiment ou en mobile-home). L'objectif est d'établir un lien entre la conception des vulnérabilités et l'estimation des pertes humaines liées à ces catastrophes naturelles. "Random forest" est utilisé et est basé sur un arbre de décision, qui permet d'évaluer la probabilité d'occurrence de décès pour une circonstance donnée en fonction d'indicateurs spatio-temporels. Un système de prévision des décès liés à l'usage de la voiture lors des crues rapides, circonstance la plus répandue, est donc proposé en s'appuyant sur les indicateurs initialement identifiés lors de l'étude théorique. Les résultats confirment que la vulnérabilité humaine et le risque associé varient de façon dynamique et infra journalière, et en fonction de la résonance spatio-temporelle entre la dynamique sociale et la dynamique d'exposition aux dangers. Par exemple, on constate que les jeunes et les personnes d'âge moyen sont plus susceptibles de se retrouver pris au piège des crues rapides particulièrement soudaines(par exemple, une durée de près de 5 heures) pendant les horaires de travail ou de loisirs en extérieur. Les personnes âgées sont quant à elles plus susceptibles de périr à l'intérieur des bâtiments, lors d'inondations plus longues, et surtout pendant la nuit lorsque les opérations de sauvetage et / ou d'évacuation sont rendues difficiles. Ces résultats mettent en évidence l'importance d'examiner la situation d'exposition aux risques en tenant compte de la vulnérabilité dynamique, plutôt que de se concentrer sur les conceptualisations génériques et statiques. Ce concept de vulnérabilité dynamique est l'objectif de modélisation développée dans cette thèse pour des vulnérabilités liés aux véhicules. À partir de l'étude de cas sur les crues rapides survenues en mai 2015, et en analysant principalement les états du Texas et de l'Oklahoma, principaux états infectés par ces évènements,le modèle montre des résultats prometteurs en termes d'identification spatio-temporelle des circonstances dangereuses. Cependant, des seuils critiques pour la prédiction des incidents liés aux véhicules doivent être étudiés plus en profondeur en intégrant des sensibilités locales non encore résolues par le modèle. Le modèle établi peut être appliqué, à une résolution journalière ou horaire, pour chaque comté du continent américain. Nous envisageons cette approche comme une première étape afin de fournir un système de prévision des crues rapides et des risques associés sur le continent américain. Il est important que la communauté scientifique spécialisée dans l'étude des crues éclairs récoltent des données à plus haute résolution lorsque ces épisodes entrainement des risques mortels, et ce afin d'appuyer la modélisation des complexités temporelles et spatiales associées aux pertes humaines causées par les futures inondations soudaines. / In the 21st century the prediction of and subsequent response to impacts due to sudden onset and localized flash flooding events remain a challenge for forecasters and emergency managers. Structural measures and/or advances in hydrological forecasting systems alone do not guarantee reduction of fatalities during short-fuse flood events. The literature highlights the need for the integration of additional factors related to social and behavioral vulnerability processes to better capture risk of people during flash floods. This dissertation conducts a theoretical analysis as well as an analysis of flash flood-specific historic fatalities to explain complex and dynamic interactions between hydrometeorological, spatial and social processes responsible for the occurrence of human life-threatening situations during the "event" phase of flash floods in the United States (U.S.). Individual-by-individual fatality records are examined in order to develop a classification system of circumstances (i.e., vehicle-related, outside/close to streams, campsite, permanent buildings, and mobile homes). The ultimate goal is to link human vulnerability conceptualizations with realistic forecasts of prominent human losses from flash flood hazards. Random forest, a well-known decision-tree based ensemble machine learning algorithm for classification is adopted to assess the likelihood of fatality occurrence for a given circumstance as a function of representative indicators at the county-level and daily or hourly time steps. Starting from the most prevalent circumstance of fatalities raised from both the literature review and the impact-based analysis, flash flood events with lethal vehicle-related accidents are the subject to predict. The findings confirm that human vulnerability and the subsequent risk to flash flooding, vary dynamically depending on the space-time resonance between that social and hazard dynamics. For example, it is found that younger and middle-aged people are more probable to get trapped from very fast flash floods (e.g., duration close to 5 hours) while participating in daytime outdoor activities (e.g., vehicle-related, recreational). In contrary, older people are more likely to perish from longer flooding inside buildings, and especially in twilight and darkness hours when rescue and/or evacuation operations are hindered. This reasoning places the importance of situational examination of dynamic vulnerability over generic and static conceptualizations, and guides the development of flash flood-specific modeling of vehicle-related human risk in this thesis. Based on the case study of May 2015 flash floods with a focus in Texas and Oklahoma, the model shows promising results in terms of identifying dangerous circumstances in space and time. Though, critical thresholds for the prediction of vehicle-related incidents need to be further investigated integrating local sensitivities, not yet captured by the model. The developed model can be applied on a daily or hourly basis for every U.S. county. We vision this approach as a first effort to provide a prediction system to support emergency preparedness and response to flash flood disasters over the conterminous U.S. It is recommended that the flash flood disaster science community and practitioners conduct data collection with more details for the life-threatening scene, and at finer resolutions to support modeling of local temporal and spatial complexities associated with human losses from flash flooding in the future.
199

Concentration fluctuations of a passive scalar in a turbulent boundary layer / Les fluctuations de concentration d'un scalaire passif dans une couche limite turbulente

Nironi, Chiara 02 July 2013 (has links)
Cette étude, menée principalement par des moyens expérimentaux, analyse la dynamique des fluctuations de concentration produites au sein d’un panache d’un scalaire passif émis par une source ponctuelle dans une couche limite turbulente. En étendant le travail de Fackrell and Robins (1982) sur les fluctuations de concentration, on décrit l’évolution des quatre premiers moments de la concentration et on étudie l’influence des conditions à la source (telles que la taille et la hauteur de la source et la vitesse de sortie) sur les moments mêmes. L’étude est complétée par une description détaillée des statistiques du champ de vitesse dans la couche limite, comprenant des informations sur la structure spatiale et temporelle de la turbulence. Cette base de données expérimentale a été utilisée pour valider deux différentes approches à la modélisation de la dispersion: un modèle analytique de meandering et un modèle Lagrangien stochastique avec un schéma de micro mélange. / This experimental study analyses the dynamics of concentration fluctuations in a passive plume emitted by a point source within the turbulent boundary layer. We aim to extend the popular study of Fackrell and Robins (1982) about concentration fluctuations and fluxes from point sources by including third and fourth moments of concentration. We also further inquire into the influence of source conditions, such as the source size, source elevation and emission velocity, on higher order concentration moments. The data set is completed by a detailed description of the velocity statistics within the TBL, with exhaustive information on both the temporal and spatial structure of the flow. The experimental data-set has been used to test two different modeling ap- proaches: an analytical meandering plume model (in one and in three dimen- sions) and a Lagrangian stochastic micro-mixing model.
200

Reliability of reinforced concrete structures : Case of slabs subjected to impact / Fiabilité des structures en béton armé : Cas des dalles soumises à impact

Kassem, Fidaa 04 November 2015 (has links)
Dans le domaine du génie civil, le dimensionnement des structures en béton armé est essentiellement basé sur des démarches déterministes. Cependant, les informations fournies par des analyses déterministes sont insuffisantes pour étudier la variabilité de la réponse de la dalle. Le manque de connaissance des charges appliquées ainsi que les incertitudes liées à la géométrie de la dalle et les caractéristiques des matériaux nécessitent donc l’utilisation d’une approche fiabiliste qui permet la propagation de ces incertitudes dans les analyses déterministes. L'approche fiabiliste est basée sur le principe de couplage mécano-fiabiliste qui consiste à coupler un modèle stochastique et un modèle déterministe. Cependant un couplage mécano-fiabiliste peut être très exigeant en temps de calcul. Dans le cadre de cette thèse, la méthodologie propre aux problématiques des ouvrages du génie civil est développée et validée tout d'abord sur un cas simple de structures en béton armé. Le cas d'une poutre encastrée en béton armée est proposé. Le système est modélisé sous CASTEM par une approche aux éléments finis de type multifibre. Puis la fiabilité d'une dalle en béton armé impactée par une masse rigide à faible vitesse est étudiée en couplant OpenTURNS à Abaqus. Enfin, une enceinte de confinement en béton précontrainte modélisée sous ASTER est étudiée d'un point de vue probabiliste. Seul le problème physique des dalles en béton armé soumises à une chute de colis dans les centrales nucléaires est examiné en détail. Deux modèles déterministes sont utilisés et évalués afin d’étudier les phénomènes dynamiques appliqués aux dalles en béton armé sous impact : un modèle par éléments finis en 3D modélisé sous Abaqus et un modèle simplifié de type masse-ressort amorti à deux degrés de liberté. Afin d’étudier la fiabilité des dalles en béton armé, nous avons couplé les méthodes Monte Carlo et simulation d’importance avec le modèle de type masse-ressort. FORM est utilisée avec le modèle par éléments finis. L’objectif de cette étude est de proposer des solutions pour diminuer le temps de calcul d'une analyse fiabiliste en utilisant deux stratégies dans le cas des dalles impactées. La première stratégie consiste à utiliser des modèles analytiques qui permettent de prédire avec précision la réponse mécanique de la dalle et qui sont moins coûteux en temps de calcul. La deuxième consiste à réduire le nombre d’appels au modèle déterministe, surtout dans le cas des modèles par éléments finis, en utilisant des méthodes probabilistes d'approximation. Ces deux stratégies sont comparées afin de vérifier l’efficacité de chacune pour calculer la probabilité de défaillance. Enfin, une étude paramétrique est réalisée afin d’étudier l’effet des paramètres d’entrées des modèles déterministes sur le calcul de la probabilité de défaillance. / Reinforced concrete structures (RC) are subjected to several sources of uncertainties that highly affect their response. These uncertainties are related to the structure geometry, material properties and the loads applied. The lack of knowledge on the potential load, as well as the uncertainties related to the features of the structure shows that the design of RC structures could be made in a reliability framework. This latter allows propagating uncertainties in the deterministic analysis. However, in order to compute failure probability according to one or several failure criteria, mechanical and stochastic models have to be coupled which can be very time consuming and in some cases impossible. The platform OpenTURNS is used to perform the reliability analysis of three different structures . OpenTURNS is coupled to CASTEM to study the reliability of a RC multifiber cantilever beam subjected to a concentrated load at the free end, to Abaqus to study the reliability of RC slabs which are subjected to accidental dropped object impact during handling operations within nuclear plant buildings, and to ASTER to study the reliability of a prestressed concrete containment building. Only the physical problem of reinforced concrete impacted by a free flying object is investigated in detail. Two deterministic models are used and evaluated: a 3D finite element model simulated with the commercial code “Abaqus/Explicit” and an analytical mass-spring model. The aim of this study is to address this issue of reliability computational effort. Two strategies are proposed for the application of impacted RC slabs. The first one consists in using deterministic analytical models which predict accurately the response of the slab. In the opposite case, when finite element models are needed, the second strategy consists in reducing the number of simulations needed to assess the failure probability. In order to examine the reliability of RC slabs, Monte Carlo and importance sampling methods are coupled with the mass-spring model, while FORM is used with the finite element model. These two stategies are compared in order to verify their efficiency to calculate the probability of failure. Finally, a parametric study is performed to identify the influence of deterministic model parameters on the calculation of failure probability (dimensions of slabs, impact velocity and mass, boundary conditions, impact point, reinforcement.

Page generated in 0.692 seconds