• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Mélange d'un scalaire dans un jet turbulent : influence d'un obstacle. / Scalar mixing in turbulent jets : influence of an obstacle

Ducasse, Marie laure 12 December 2012 (has links)
Cette étude s'intéresse aux risques associés à la formation d'une ATmosphère EXplosive (ATEX) née d'une fuite d'hydrogène et de sa dispersion dans l'air ambiant. La fuite a été modélisée par un jet turbulent à densité variable libre, impactant sur une sphère de diamètre 20mm ou sur une plaque plane. Dans un premier temps, les champs de vitesses et de concentration ont été obtenus expérimentalement en proche sortie grâce à des mesures de Vélocimétrie par Images de Particules (PIV) et de Fluorescence Induite par Plan Laser sur l'acétone (PLIF). La turbulence et le mélange ont été caractérisés pour le cas d'un jet libre ou en présence d'un obstacle. A partir de ces mesures, la structure générale de l'écoulement a été étudiée à partir des champs moyens et fluctuants par comparaison avec les données de la bibliographie. Puis, les données issues des fluctuations ont été analysées statistiquement par l'étude des fonctions de densité de probabilité du scalaire. Ces travaux se sont poursuivis avec la mise en relation des résultats expérimentaux avec ceux obtenues par des simulations numériques DNS (Direct Numerical Simulation) utilisant la méthode Boltzmann sur Réseau (LBM) d'un scalaire passif dans un jet d'air. Cette étude a permis de recueillir et d'analyser des données supplémentaires sur le mélange d'un jet à masse volumique variable libre ou impactant. Ces données sont directement applicables à la maitrise des risques liés aux fuites d'hydrogène. / This study examines the risks associated with the formation of an explosive atmosphere from a hydrogen leak and its dispersion into the air. We considered the leak as a turbulent jet with density variable, free and impinging a $20,mm$ diameter sphere or a flat plate. Firstly, velocity and scalar fields have been measured experimentally in the near field through Particle Image Velocimetry (PIV) and acetone Planar Laser Induced Fluorescence (LIF). Turbulence and mixing have been defined in the case of free jet and impinging jet. From this measurements, the flow structure has been presented from the mean and fluctuating flow measurements by comparison with literature data. Next, the fluctuation scalar fields are studied with the probability density function method. Finally, a comparison has been conducted between the experiments and direct numerical simulation (DNS) of turbulence based on the lattice Boltzmann method (LBM) for passive scalar in air jet. This study is gathering and analyzing data on the mixing of jet with density variable, free and impinging jet. Such data is directly useful to identify and control risks incurred due to hydrogen leak.
172

Analyse de la dynamique du phénomène de contagion entre les obligations souveraines européennes au cours des récents épisodes de crises financières / Sovereign risk exploration in times of crisis : a look at financial contagion

Thoumin, Marc-Henri 21 December 2017 (has links)
Les périodes marquées par une aversion au risque intense sont souvent l’origine de distorsions notables dans les prix de marché, et de pertes substantielles pour les investisseurs. Chaque épisode de crise financière montre que les mouvements de ventes généralisées sur les marchés ont des conséquences très négatives sur l’économie réelle. Ainsi, explorer le phénomène d’aversion au risque et la dynamique de propagation du sentiment de panique sur les marchés financiers peut aider à appréhender ces périodes de forte volatilité.Dans ce rapport de thèse, nous explorons différentes dimensions du phénomène d’aversion au risque, dans le cadre de portefeuilles d’obligations souveraines Européennes. Le rendement des obligations d’Etat, quotté par les traders, est sensé refléter entre autre le risque que le Trésor fasse défaut sur sa dette, avant que l’obligation vienne à maturation. Il s’agit là du risque souverain. Les crises financières habituellement occasionnent un mouvement important des rendements vers des niveaux plus élevés. Ce type de correction reflète un accroissement du risque souverain, et implique nécessairement une hausse du coût de financement pour les Trésors nationaux. Un objectif de ce rapport est donc de fournir des détails inédits aux Trésors sur la manière dont les rendements obligataires sont sensés se détériorer en période d’aversion au risque.Chapitre I explore le risque souverain dans le cadre d’un modèle probabiliste impliquant des distributions à queues lourdes, ainsi que la méthode GAS qui permet de capturer la dynamique de la volatilité. L’ajustement obtenu avec les distributions Hyperboliques Généralisées est robuste, et les résultats laissent penser que notre approche est particulièrement efficace durant les périodes marquées par une volatilité erratique. Dans un but de simplification, nous décrivons la mise en place d’un estimateur de volatilité intemporel, sensé refléter la volatilité intrinsèque de chaque obligation. Cet estimateur suggère que la volatilité croit de manière quadratique lorsque celle-ci est exprimée en fonction de la fonction de répartition des variations de rendements. Dans un second temps nous explorons une version bivariée du modèle. La calibration, robuste, met en valeur les corrélations entre chaque obligation. En guise d’observation générale, notre analyse confirme que les distributions à queues épaisses sont tout à fait appropriées pour l’exploration des prix de marché en période de crise financière.Chapitre II explore différentes manières d’exploiter notre modèle probabiliste. Afin d’identifier la dynamique de la contagion entre les obligations souveraines, nous analysons la réaction attendue du marché à une série de chocs financiers. Nous considérons un niveau important de granularité pour ce qui est de la sévérité du choc sous-jacent, et ceci nous permet d’identifier des lois empiriques supposées généraliser le comportement de la réaction de marché lorsque l’aversion au risque s’intensifie. Puis, nous incorporons nos estimateurs de volatilité et de réaction de marché à certaines approches reconnues d’optimisation de portefeuille et nous notons une amélioration de la résistance des portefeuilles, dans cette nouvelle version. Finalement, nous développons une nouvelle méthodologie d’optimisation de portefeuille basée sur le principe de mean-reversion.Chapitre III est dédié au pricing de produits dérivés de taux. Nous considérons maintenant que l’aversion au risque cause l’émergence de discontinuités dans les prix de marché, que nous simulons par le biais de processus à sauts. Notre modèle se concentre sur les processus de Hawkes qui ont l’avantage de capturer la présence d’auto-excitation dans la volatilité. Nous développons une procédure de calibration qui se distingue des procédures habituelles. Les résultats de volatilité implicite sont cohérents avec la volatilité réalisée, et suggèrent que les coefficients de prime de risque ont été estimés avec succès. / Periods of deep risk aversion are usually marked by sizeable distortions in market prices, and substantial losses in portfolios. As observed during financial crises, a generalized debacle in financial markets is a very negative shock for the real economy. Against this backdrop, it looks relevant to explore how risk aversion tends to affect global market valuations, especially if this exercise helps make the promotion of more optimal portfolio rebalancing procedures.In this dissertation, we investigate different dimensions of risk aversion, with a focus on European Sovereign debt securities. For a given sovereign bond, the (quoted) yield to maturity has to reflect the underlying risk that the Treasury may default on its debt, before maturation of the bond. This is sovereign risk. Financial crises usually occasion an upward correction in bond yields. Since higher yields reflect larger sovereign risk and higher funding costs, national Treasuries are usually inclined to get a deeper understanding of how sovereign risk could evolve under the influence of fierce risk aversion. This is another objective of our research analysis.In Chapter I, we consider a probabilistic approach to sovereign risk exploration, with the main purpose of illustrating the non-linear reaction ensuing from a gradual deterioration in market sentiment. We consider heavy-tailed distributions, and we use the Generalised Autoregressive Score method as a means to capture the volatility momentum. The goodness of fit provided by Generalised Hyperbolic distributions is compelling, and results suggest that our approach is particularly relevant to fit periods or erratic volatility, typical of financial crises. As an attempt to simplify the model, we focus on an empirical formulation of the ‘untemporal’ volatility of each security. This estimator of the intrinsic volatility suggests that volatility tends to accelerate in a quadratic manner when it is expressed against the cumulative distribution function of the yield variations. In a second part, we extend this approach to a problem of larger dimension and we explore the dynamics of risk aversion from a bivariate point of view. Results look robust and illustrate multivariate correlations between sovereign securities. As a general conclusion, heavy-tailed distributions look remarkably efficient to replicate the distribution of times-series affected by distorted volatility and erratic price variations.Chapter II explores different ways to extract information from the model, about financial contagion and how it is supposed to propagate through sovereign securities. In particular, we explore the market reaction to a series of many shocks with gradual intensity. Results offer a high degree of granularity and we extrapolate empirical rules on the expected market dynamics, when risk aversion intensifies. Then we incorporate our estimators of volatility and market reaction (to shocks) into popular portfolio optimisation procedures and we see positive implications on the general resilience of these portfolios. Finally, we also design an in-house methodology for optimal portfolio rebalancing, based on mean reversion.In Chapter III, we explore how sovereign risk tends to affect the price of financial derivatives in a risk-off environment. We consider that risk aversion and the ensuing volatility now favour the emergence of sizeable discontinuities in market prices, that we model with stochastic jumps. The different approaches we investigate extensively rely on Hawkes processes. These stochastic processes seek to estimate the durable impact of risk aversion onto the dynamics of jumps, via the introduction of dedicated self-excited loops. We develop an original approach to the calibration, different from conventional procedures. In the end, the calculated implied volatility remains in the vicinity of the realised volatility and there is a visible capability to jump on any rise in risk aversion.
173

Contribution à l'évaluation de la sûreté de fonctionnement des Systèmes Instrumentés de Sécurité à Intelligence Distribuée / Contribution to assessing the dependability of safety instrumented systems integrating intelligence

Mkhida, Abdelhak 14 November 2008 (has links)
L’incorporation des instruments intelligents dans les boucles de sécurité nous mène vers une sécurité intelligente et les systèmes deviennent des « systèmes instrumentés de sécurité à intelligence distribuée (SISID) ». La justification de l’usage de ces instruments dans les applications de sécurité n’est pas complètement avérée. L’évaluation de la sûreté de fonctionnement de ce type de systèmes n’est pas triviale. Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l’intelligence dans les instruments de terrain. La méthodologie que nous utilisons consiste en la modélisation de l’aspect fonctionnel et dysfonctionnel de ces systèmes en adoptant le formalisme basé sur les réseaux de Petri stochastiques qui assurent la représentation du comportement dynamique de ce type de systèmes. La modélisation est traitée sous la forme d’une approche stochastique utilisant les réseaux d’activité stochastiques SAN (Stochastic Activity Network). L’introduction d’indicateurs de performances permet de mettre en évidence l’effet de l’intégration des niveaux d’intelligence dans les applications de sécurité. La méthode de Monte Carlo est utilisée pour évaluer les paramètres de sûreté de fonctionnement des SIS en conformité avec les normes de sécurité relatives aux systèmes instrumentés de sécurité (CEI 61508 et CEI 61511). Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes instrumentés de sécurité (SIS) intégrant quelques fonctionnalités des instruments intelligents / The incorporation of intelligent instruments in safety loops leads towards the concept of intelligent safety and the systems become “Intelligent Distributed Safety Instrumented Systems (IDSIS)”. The justification for using these instruments in safety applications is not fully proven and the dependability evaluation of such systems is a difficult task. Achieved work in this thesis deals with modelling and thus the performance evaluation relating to the dependability for structures which have intelligence in the instruments constituting the Safety Instrumented Systems (SIS). In the modelling of the system, the functional and dysfunctional aspects coexist and the dynamic approach using the Stochastic Activity Network (SAN) is proposed to overcome the difficulties mentioned above. The introduction of performance indicators highlight the effect of the integration of intelligence levels in safety applications. Monte-Carlo method is used to assess the dependability parameters in compliance with safety standards related to SIS (IEC 61508 & IEC 61511). We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing Safety Instrumented Systems (SIS) integrating some features of intelligent tools
174

An algorithmic look at phase-controlled branching processes / Un regard algorithmique aux processus de branchement contrôlés par des phases

Hautphenne, Sophie 15 October 2009 (has links)
Branching processes are stochastic processes describing the evolution of populations of individuals which reproduce and die independently of each other according to specific probability laws. We consider a particular class of branching processes, called Markovian binary trees, where the lifetime and birth epochs of individuals are controlled by a Markovian arrival process. <p><p>Our objective is to develop numerical methods to answer several questions about Markovian binary trees. The issue of the extinction probability is the main question addressed in the thesis. We first assume independence between individuals. In this case, the extinction probability is the minimal nonnegative solution of a matrix fixed point equation which can generally not be solved analytically. In order to solve this equation, we develop a linear algorithm based on functional iterations, and a quadratic algorithm, based on Newton's method, and we give their probabilistic interpretation in terms of the tree. <p><p>Next, we look at some transient features for a Markovian binary tree: the distribution of the population size at any given time, of the time until extinction and of the total progeny. These distributions are obtained using the Kolmogorov and the renewal approaches. <p><p>We illustrate the results mentioned above through an example where the Markovian binary tree serves as a model for female families in different countries, for which we use real data provided by the World Health Organization website. <p><p>Finally, we analyze the case where Markovian binary trees evolve under the external influence of a random environment or a catastrophe process. In this case, individuals do not behave independently of each other anymore, and the extinction probability may no longer be expressed as the solution of a fixed point equation, which makes the analysis more complicated. We approach the extinction probability, through the study of the population size distribution, by purely numerical methods of resolution of partial differential equations, and also by probabilistic methods imposing constraints on the external process or on the maximal population size.<p><p>/<p><p>Les processus de branchements sont des processus stochastiques décrivant l'évolution de populations d'individus qui se reproduisent et meurent indépendamment les uns des autres, suivant des lois de probabilités spécifiques. <p><p>Nous considérons une classe particulière de processus de branchement, appelés arbres binaires Markoviens, dans lesquels la vie d'un individu et ses instants de reproduction sont contrôlés par un MAP. Notre objectif est de développer des méthodes numériques pour répondre à plusieurs questions à propos des arbres binaires Markoviens.<p><p>La question de la probabilité d'extinction d'un arbre binaire Markovien est la principale abordée dans la thèse. Nous faisons tout d'abord l'hypothèse d'indépendance entre individus. Dans ce cas, la probabilité d'extinction s'exprime comme la solution minimale non négative d'une équation de point fixe matricielle, qui ne peut être résolue analytiquement. Afin de résoudre cette équation, nous développons un algorithme linéaire, basé sur l'itération fonctionnelle, ainsi que des algorithmes quadratiques, basés sur la méthode de Newton, et nous donnons leur interprétation probabiliste en termes de l'arbre que l'on étudie.<p><p>Nous nous intéressons ensuite à certaines caractéristiques transitoires d'un arbre binaire Markovien: la distribution de la taille de la population à un instant donné, celle du temps jusqu'à l'extinction du processus et celle de la descendance totale. Ces distributions sont obtenues en utilisant l'approche de Kolmogorov ainsi que l'approche de renouvellement.<p><p>Nous illustrons les résultats mentionnés plus haut au travers d'un exemple où l'arbre binaire Markovien sert de modèle pour des populations féminines dans différents pays, et pour lesquelles nous utilisons des données réelles fournies par la World Health Organization.<p><p>Enfin, nous analysons le cas où les arbres binaires Markoviens évoluent sous une influence extérieure aléatoire, comme un environnement Markovien aléatoire ou un processus de catastrophes. Dans ce cas, les individus ne se comportent plus indépendamment les uns des autres, et la probabilité d'extinction ne peut plus s'exprimer comme la solution d'une équation de point fixe, ce qui rend l'analyse plus compliquée. Nous approchons la probabilité d'extinction au travers de l'étude de la distribution de la taille de la population, à la fois par des méthodes purement numériques de résolution d'équations aux dérivées partielles, ainsi que par des méthodes probabilistes en imposant des contraintes sur le processus extérieur ou sur la taille maximale de la population. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
175

Analyse de sensibilité fiabiliste avec prise en compte d'incertitudes sur le modèle probabiliste - Application aux systèmes aérospatiaux / Reliability-oriented sensitivity analysis under probabilistic model uncertainty – Application to aerospace systems

Chabridon, Vincent 26 November 2018 (has links)
Les systèmes aérospatiaux sont des systèmes complexes dont la fiabilité doit être garantie dès la phase de conception au regard des coûts liés aux dégâts gravissimes qu’engendrerait la moindre défaillance. En outre, la prise en compte des incertitudes influant sur le comportement (incertitudes dites « aléatoires » car liées à la variabilité naturelle de certains phénomènes) et la modélisation de ces systèmes (incertitudes dites « épistémiques » car liées au manque de connaissance et aux choix de modélisation) permet d’estimer la fiabilité de tels systèmes et demeure un enjeu crucial en ingénierie. Ainsi, la quantification des incertitudes et sa méthodologie associée consiste, dans un premier temps, à modéliser puis propager ces incertitudes à travers le modèle numérique considéré comme une « boîte-noire ». Dès lors, le but est d’estimer une quantité d’intérêt fiabiliste telle qu’une probabilité de défaillance. Pour les systèmes hautement fiables, la probabilité de défaillance recherchée est très faible, et peut être très coûteuse à estimer. D’autre part, une analyse de sensibilité de la quantité d’intérêt vis-à-vis des incertitudes en entrée peut être réalisée afin de mieux identifier et hiérarchiser l’influence des différentes sources d’incertitudes. Ainsi, la modélisation probabiliste des variables d’entrée (incertitude épistémique) peut jouer un rôle prépondérant dans la valeur de la probabilité obtenue. Une analyse plus profonde de l’impact de ce type d’incertitude doit être menée afin de donner une plus grande confiance dans la fiabilité estimée. Cette thèse traite de la prise en compte de la méconnaissance du modèle probabiliste des entrées stochastiques du modèle. Dans un cadre probabiliste, un « double niveau » d’incertitudes (aléatoires/épistémiques) doit être modélisé puis propagé à travers l’ensemble des étapes de la méthodologie de quantification des incertitudes. Dans cette thèse, le traitement des incertitudes est effectué dans un cadre bayésien où la méconnaissance sur les paramètres de distribution des variables d‘entrée est caractérisée par une densité a priori. Dans un premier temps, après propagation du double niveau d’incertitudes, la probabilité de défaillance prédictive est utilisée comme mesure de substitution à la probabilité de défaillance classique. Dans un deuxième temps, une analyse de sensibilité locale à base de score functions de cette probabilité de défaillance prédictive vis-à-vis des hyper-paramètres de loi de probabilité des variables d’entrée est proposée. Enfin, une analyse de sensibilité globale à base d’indices de Sobol appliqués à la variable binaire qu’est l’indicatrice de défaillance est réalisée. L’ensemble des méthodes proposées dans cette thèse est appliqué à un cas industriel de retombée d’un étage de lanceur. / Aerospace systems are complex engineering systems for which reliability has to be guaranteed at an early design phase, especially regarding the potential tremendous damage and costs that could be induced by any failure. Moreover, the management of various sources of uncertainties, either impacting the behavior of systems (“aleatory” uncertainty due to natural variability of physical phenomena) and/or their modeling and simulation (“epistemic” uncertainty due to lack of knowledge and modeling choices) is a cornerstone for reliability assessment of those systems. Thus, uncertainty quantification and its underlying methodology consists in several phases. Firstly, one needs to model and propagate uncertainties through the computer model which is considered as a “black-box”. Secondly, a relevant quantity of interest regarding the goal of the study, e.g., a failure probability here, has to be estimated. For highly-safe systems, the failure probability which is sought is very low and may be costly-to-estimate. Thirdly, a sensitivity analysis of the quantity of interest can be set up in order to better identify and rank the influential sources of uncertainties in input. Therefore, the probabilistic modeling of input variables (epistemic uncertainty) might strongly influence the value of the failure probability estimate obtained during the reliability analysis. A deeper investigation about the robustness of the probability estimate regarding such a type of uncertainty has to be conducted. This thesis addresses the problem of taking probabilistic modeling uncertainty of the stochastic inputs into account. Within the probabilistic framework, a “bi-level” input uncertainty has to be modeled and propagated all along the different steps of the uncertainty quantification methodology. In this thesis, the uncertainties are modeled within a Bayesian framework in which the lack of knowledge about the distribution parameters is characterized by the choice of a prior probability density function. During a first phase, after the propagation of the bi-level input uncertainty, the predictive failure probability is estimated and used as the current reliability measure instead of the standard failure probability. Then, during a second phase, a local reliability-oriented sensitivity analysis based on the use of score functions is achieved to study the impact of hyper-parameterization of the prior on the predictive failure probability estimate. Finally, in a last step, a global reliability-oriented sensitivity analysis based on Sobol indices on the indicator function adapted to the bi-level input uncertainty is proposed. All the proposed methodologies are tested and challenged on a representative industrial aerospace test-case simulating the fallout of an expendable space launcher.
176

Développement des méthodes AK pour l'analyse de fiabilité. Focus sur les évènements rares et la grande dimension / Development of AK-based method for reliability analyses. Focus on rare events and high dimension

Lelièvre, Nicolas 13 December 2018 (has links)
Les ingénieurs utilisent de plus en plus de modèles numériques leur permettant de diminuer les expérimentations physiques nécessaires à la conception de nouveaux produits. Avec l’augmentation des performances informatiques et numériques, ces modèles sont de plus en plus complexes et coûteux en temps de calcul pour une meilleure représentation de la réalité. Les problèmes réels de mécanique sont sujets en pratique à des incertitudes qui peuvent impliquer des difficultés lorsque des solutions de conception admissibles et/ou optimales sont recherchées. La fiabilité est une mesure intéressante des risques de défaillance du produit conçu dus aux incertitudes. L’estimation de la mesure de fiabilité, la probabilité de défaillance, nécessite un grand nombre d’appels aux modèles coûteux et deviennent donc inutilisable en pratique. Pour pallier ce problème, la métamodélisation est utilisée ici, et plus particulièrement les méthodes AK qui permettent la construction d’un modèle mathématique représentatif du modèle coûteux avec un temps d’évaluation beaucoup plus faible. Le premier objectif de ces travaux de thèses est de discuter des formulations mathématiques des problèmes de conception sous incertitudes. Cette formulation est un point crucial de la conception de nouveaux produits puisqu’elle permet de comprendre les résultats obtenus. Une définition des deux concepts de fiabilité et de robustesse est aussi proposée. Ces travaux ont abouti à une publication dans la revue internationale Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). Le second objectif est de proposer une nouvelle méthode AK pour l’estimation de probabilités de défaillance associées à des évènements rares. Cette nouvelle méthode, nommée AK-MCSi, présente trois améliorations de la méthode AK-MCS : des simulations séquentielles de Monte Carlo pour diminuer le temps d’évaluation du métamodèle, un nouveau critère d’arrêt sur l’apprentissage plus stricte permettant d’assurer le bon classement de la population de Monte Carlo et un enrichissement multipoints permettant la parallélisation des calculs du modèle coûteux. Ce travail a été publié dans la revue Structural Safety (Lelièvre, et al. 2018). Le dernier objectif est de proposer de nouvelles méthodes pour l’estimation de probabilités de défaillance en grande dimension, c’est-à-dire un problème défini à la fois par un modèle coûteux et un très grand nombre de variables aléatoires d’entrée. Deux nouvelles méthodes, AK-HDMR1 et AK-PCA, sont proposées pour faire face à ce problème et sont basées respectivement sur une décomposition fonctionnelle et une technique de réduction de dimension. La méthode AK-HDMR1 fait l’objet d’une publication soumise à la revue Reliability Engineering and Structural Safety le 1er octobre 2018. / Engineers increasingly use numerical model to replace the experimentations during the design of new products. With the increase of computer performance and numerical power, these models are more and more complex and time-consuming for a better representation of reality. In practice, optimization is very challenging when considering real mechanical problems since they exhibit uncertainties. Reliability is an interesting metric of the failure risks of design products due to uncertainties. The estimation of this metric, the failure probability, requires a high number of evaluations of the time-consuming model and thus becomes intractable in practice. To deal with this problem, surrogate modeling is used here and more specifically AK-based methods to enable the approximation of the physical model with much fewer time-consuming evaluations. The first objective of this thesis work is to discuss the mathematical formulations of design problems under uncertainties. This formulation has a considerable impact on the solution identified by the optimization during design process of new products. A definition of both concepts of reliability and robustness is also proposed. These works are presented in a publication in the international journal: Structural and Multidisciplinary Optimization (Lelièvre, et al. 2016). The second objective of this thesis is to propose a new AK-based method to estimate failure probabilities associated with rare events. This new method, named AK-MCSi, presents three enhancements of AK-MCS: (i) sequential Monte Carlo simulations to reduce the time associated with the evaluation of the surrogate model, (ii) a new stricter stopping criterion on learning evaluations to ensure the good classification of the Monte Carlo population and (iii) a multipoints enrichment permitting the parallelization of the evaluation of the time-consuming model. This work has been published in Structural Safety (Lelièvre, et al. 2018). The last objective of this thesis is to propose new AK-based methods to estimate the failure probability of a high-dimensional reliability problem, i.e. a problem defined by both a time-consuming model and a high number of input random variables. Two new methods, AK-HDMR1 and AK-PCA, are proposed to deal with this problem based on respectively a functional decomposition and a dimensional reduction technique. AK-HDMR1 has been submitted to Reliability Enginnering and Structural Safety on 1st October 2018.
177

Revisiting stormwater quality conceptual models in a large urban catchment : Online measurements, uncertainties in data and models / Révision des modèles conceptuels de qualité des eaux pluviales sur un grand bassin versant urbain : Mesures en continue, incertitudes sur les données et les modèles

Sandoval Arenas, Santiago 05 December 2017 (has links)
Les modèles de Rejets Urbains par Temps de Pluie (MRUTP) de Matières en Suspension (MES) dans les systèmes d’assainissement urbains sont essentiels pour des raisons scientifiques, environnementales, opérationnelles et réglementaires. Néanmoins, les MRUTP ont été largement mis en question, surtout pour reproduire des données mesurées en continu à l’exutoire des grands bassins versants. Dans cette thèse, trois limitations potentielles des MRUTP traditionnels ont été étudiées dans un bassin versant de 185 ha (Chassieu, France), avec des mesures en ligne de 365 événements pluvieux : a) incertitudes des données dû aux conditions sur le terrain, b) incertitudes dans les modèles hydrologiques et mesures de pluie et c) incertitudes dans les structures traditionnelles des MRUTP. Ces aspects sont approfondis dans six apports séparés, dont leurs résultats principaux peuvent être synthétisés comme suites : a) Acquisition et validation des données : (i) quatre stratégies d’échantillonnage pendant des événements pluvieux sont simulées et évaluées à partir de mesures en ligne de MES et débit. Les intervalles d’échantillonnage recommandés sont de 5 min, avec des erreurs moyennes entre 7 % et 20 % et des incertitudes sur ces erreurs d’environ 5 %, selon l’intervalle d’échantillonnage; (ii) la probabilité de sous-estimation de la concentration moyenne dans la section transversale du réseau est estimée à partir de deux méthodologies. Une méthodologie montre des sous-estimations de MES plus réelles (vers 39 %) par apport à l'autre (vers 269 %). b) Modèles hydrologiques et mesures de pluie : (iii) une stratégie d’estimation de paramètres d’un modèle conceptuel pluie-débit est proposée, en analysant la variabilité des paramètres optimaux obtenus à partir d’un calage Bayésien évènement-par-évènement; (iv) une méthode pour calculer les précipitations moyennes sur un bassin versant est proposée, sur la base du même modèle hydrologique et les données de débit. c) MRUTP (pollutographes) : (v) la performance de modélisation à partir du modèle traditionnel courbe d’étalonnage (RC) a été supérieur aux différents modèles linéaires de fonctions de transfert (TF), surtout en termes de parcimonie et précision des simulations. Aucune relation entre les potentielles erreurs de mesure de la pluie et les conditions hydrologiques définies en (iii) et (iv) avec les performances de RC et TFs n’a pu être établie. Des tests statistiques renforcent que l’occurrence des évènements non-représentables par RC ou TF au cours de temps suit une distribution aléatoire (indépendante de la période sèche précédente); (vi) une méthode de reconstruction Bayésienne de variables d’état virtuelles indique que des processus potentiellement manquants dans une description RC sont ininterprétables en termes d’un unique état virtuel de masse disponible dans le bassin versant qui diminue avec le temps, comme nombre de modèles traditionnels l’ont supposé. / Total Suspended Solids (TSS) stormwater models in urban drainage systems are often required for scientific, legal, environmental and operational reasons. However, these TSS stormwater traditional model structures have been widely questioned, especially when reproducing data from online measurements at the outlet of large urban catchments. In this thesis, three potential limitations of traditional TSS stormwater models are analyzed in a 185 ha urban catchment (Chassieu, Lyon, France), by means 365 rainfall events monitored online: a) uncertainties in TSS data due to field conditions; b) uncertainties in hydrological models and rainfall measurements and c) uncertainties in the stormwater quality model structures. These aspects are investigated in six separate contributions, whose principal results can be summarized as follows: a) TSS data acquisition and validation: (i) four sampling strategies during rainfall events are simulated and evaluated by online TSS and flow rate measurements. Recommended sampling time intervals are of 5 min, with average sampling errors between 7 % and 20 % and uncertainties in sampling errors of about 5 %, depending on the sampling interval; (ii) the probability of underestimating the cross section mean TSS concentration is estimated by two methodologies. One method shows more realistic TSS underestimations (about 39 %) than the other (about 269 %). b) Hydrological models and rainfall measurements: (iii) a parameter estimation strategy is proposed for conceptual rainfall-runoff model by analyzing the variability of the optimal parameters obtained by single-event Bayesian calibrations, based on clusters and graphs representations. The new strategy shows more performant results in terms of accuracy and precision in validation; (iv) a methodology aimed to calculate “mean” areal rainfall estimation is proposed, based on the same hydrological model and flow rate data. Rainfall estimations by multiplying factors over constant-length time window and rainfall zero records filled with a reverse model show the most satisfactory results compared to further rainfall estimation models. c) Stormwater TSS pollutograph modelling: (v) the modelling performance of the traditional Rating Curve (RC) model is superior to different linear Transfer Function models (TFs), especially in terms of parsimony and precision of the simulations. No relation between the rainfall corrections or hydrological conditions defined in (iii) and (iv) with performances of RC and TFs could be established. Statistical tests strengthen that the occurrence of events not representable by the RC model in time is independent of antecedent dry weather conditions; (vi) a Bayesian reconstruction method of virtual state variables indicate that potential missing processes in the RC description are hardly interpretable as a unique state of virtual available mass over the catchment decreasing over time, as assumed by a great number of traditional models.
178

Comparaison empirique des méthodes bootstrap dans un contexte d'échantillonnage en population finie.

Dabdoubi, Oussama 08 1900 (has links)
No description available.
179

Etude et Amélioration de Turbo-Codage Distribué pour les Réseaux Coopératifs

Ben Chikha, Haithem 10 April 2012 (has links)
Dans les systèmes radio mobiles, la diversité représente une technique efficace pour lutter contre l’évanouissement dû aux multi-trajets. La pleine diversité spatiale est atteinte dans les systèmes multiple-input multiple-output (MIMO). Mais, souvent l’intégration d’antennes multiples au niveau de l’émetteur ou du récepteur est coûteuse. Comme alternative, dans les réseaux sans fil multi-hop, la diversité coopérative garantit des gains de diversité spatiale en exploitant les techniques MIMO traditionnelles sans avoir besoin d’antennes multiples. En outre, la diversité coopérative fournit au réseau : un débit important, une énergie réduite et une couverture d’accès améliorée.Dans ce contexte, l’objectif de cette thèse est de concevoir des schémas de codage pour le canal à relais afin de réaliser une meilleure performance en termes de gain de diversité et de gain de codage. D’abord, nous étudions un système de turbo-codage distribué à L-relais en mode soft-decode-and-forward. Ensuite, nous proposons un système de turbocodage coopératif distribué à L-relais en utilisant la concaténation en parallèle des codes convolutifs. Enfin, afin d’améliorer la fiabilité de détection au niveau du noeud relais, nous proposons la technique de sélection d’antenne/relayage-soft. Pour une modulation BPSK, nous dérivons des expressions de la borne supérieure de la probabilité d’erreurbinaire où les différents sous-canaux sont supposés à évanouissement de Rayleigh, indépendants et pleinement entrelacés avec une information instantanée d’état de canal idéal. Une validation des résultats théoriques est également menée par la simulation. / Diversity provides an efficient method for combating multipath fading in mobile radio systems. One of the most common forms of spatial diversity is multiple-input multipleoutput (MIMO), where full diversity is obtained. However, embedding multiple antennas at the transmitter or the receiver can sometimes be expensive. As an alternative to collocated antennas, cooperative diversity in wireless multi-hop networks confirms their ability to achieve spatial diversity gains by exploiting the spatial diversity of the traditional MIMO techniques, without each node necessarily having multiple antennas. In addition, cooperative diversity has been shown to provide the network with importantthroughput, reduced energy requirements and improved access coverage.In light of this, the objective of this thesis is to devise coding schemes suitable for relay channels that aim at showing the best compromise between performance of diversity and coding gains. Firstly, we investigate a distributed turbo coding scheme dedicated to L-relay channels operating in the soft-decode-and-forward mode. Then, we present a proposed distributed turbo coded cooperative (DTCC) scheme, called parallel concatenated convolutional-based distributed coded cooperation. Finally, we investigate antenna/soft-relaying selection for DTCC networks in order to improve their end-to-end performance. Assuming BPSK transmission for fully interleaved channels with ideal channel state information, we define the explicit upper bounds for error probability inRayleigh fading channels with independent fading. Both theoretical limits and simulation results are presented to demonstrate the performances.
180

Les passages régis par les verbes d’imminence assimilés ou apparentés et leurs traductions en français dans l’œuvre de Rachid El-Daïf / The passages governed by assimilated or related imminent verbs and their translations into French in the work of Rachid El-Daïf

Sylla, Moctar 27 June 2017 (has links)
Cette recherche porte sur les verbes d’imminence assimilés ou apparentés dans l’oeuvre de Rachid EL-DAÏF et leur traduction en français. Nous avons procédé à l’analyse de ces verbes en arabe ancien et moderne, ainsi qu’en français, dans une perspective contrastive afin de relever les similitudes et les différences entre les deux langues. Nous avons étudié les verbes d’imminence dans la première partie, les verbes de souhait ou de probabilité dans l’expression de la modalité dans la deuxième, les verbes inchoatifs dans la troisième, l’analyse du verbe pouvoir et de son équivalent devoir en français dans la quatrième, l’exposant temporel kâna à la forme préfixée dans la cinquième partie. / Our research concerns assimilated or related imminent verbs in the work of Rachid EL-DAÏF and their translation into French. We analyzed these verbs in ancient and modern Arabic, as well as in French, in a contrasting perspective in order to identify the similarities and differences between the two languages. We have studied the verbs of imminence in the first part, the verbs of desire or probability in the expression of the modality in the second, the verbs in the third, the verb power and its equivalent duty in French in the fourth, the temporal exponent kana to the form prefixed in the fifth part.

Page generated in 0.0443 seconds