• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Contribution à la quantification des programmes de maintenance complexes / Contribution to complex maintenance program quantification

Ruin, Thomas 09 December 2013 (has links)
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE / To face with new legislatives and environmental contexts in which they have to operate, it is needed now that the industrials systems have to satisfy to many different requirements and constraints. Thus, these requirements are not only conventional ones such as availability and costs, but also emergent ones such as safety and sustainability. This report implies for the specific French company EDF (energy power supplier) to evolve from its usual approach of reliability centered maintenance (RCM) to a new approach. It is consisting mainly in developing a tool able to support the Complex Maintenance Programs Quantification (CMPQ). This Ph.D. is dealing with this the engineering and deployment of this tool in the frame of the GIS 3SGS - DEPRADEM 2 project. The first step of the work is to generalize EDF needs, then to propose a framework enabling to identify required generic knowledge needed to assess the Key Performances Indicators (KPIs) for supporting quantification. The next step is to model the generic knowledge in two complementary ways: a formalization of the static, interactional and behavioral knowledge based on different SysML diagrams; and a formalization of the dynamic and executable knowledge formalized by AltaRicaDF (ADF) language, allowing to perform stochastic simulation and to assess required KPIs. The path to elaborate dynamic executable vision from SysML diagrams is released by means of rules between each element of interest of both languages. All this approach/tool is applied to a specific EDF case study: the ARE system
372

Stratégies optimales de maintenance de systèmes multi-composants sujets à des défaillances aléatoires / Optimal maintenance policies for multi-component systems subject to random failures

Maâroufi, Ghofrane 28 November 2013 (has links)
Cette thèse porte sur le développement, l'évaluation et l'optimisation de nouvelles stratégies de maintenance pour des systèmes multi-composants. Cette démarche est justifiée par le fait que contrairement aux systèmes monolithiques qui ont été largement traités dans la littérature sur la maintenance, les systèmes multi-composants avec dépendances économique et stochastique sont encore peu étudiés à cause essentiellement de la difficulté de modélisation de ces types de dépendance. Dans ce cadre d'étude de la maintenance des systèmes multi-composants, cette thèse contient trois volets indépendants. Le premier volet porte sur un type particulier d'équipements dont l'état ne peut être connu que suite à une inspection. De tels équipements constitués de deux composants en série sont considérés. Une nouvelle stratégie quasi-optimale de maintenance conditionnelle basée sur des inspections séquentielles des deux composants est proposée. Dans le deuxième volet on considère des systèmes multi-composants complexes dans le sens où leurs composants peuvent être sujets à des défaillances aléatoires locales et/ou propagées avec ou sans effet d'isolation. Une stratégie de maintenance sélective est proposée pour ce type de systèmes. Dans le troisième et dernier volet la notion de systèmes multi-composants est étendue aux systèmes de production multi-lignes. Dans cette perspective, cette partie porte sur le développement d'une politique intégrée de production-maintenance pour un système de production à deux lignes fonctionnant en parallèle en présence d'une dépendance de type stochastique entre les deux lignes / This thesis focuses on the development, the evaluation and the optimization of new maintenance policies for multi-component systems. This approach is justified by the fact that contrarily to single component systems which have been extensively treated in the literature on maintenance strategies, multi-component systems with economic and stochastic dependence have been much less studied due to the difficulty in modeling such kind of dependence. In this context of studying multi-component systems maintenance, this thesis is made of three independent parts. The first part focuses on a particular type of equipment whose state can only be known following inspection. Such equipment made of two components in series is considered. A new nearly optimal condition based maintenance policy based on sequential inspections of both components is proposed. In the second part, we consider complex multi-component systems in which the components are subject to random local and/or propagated failures, with or without isolation effect. A selective maintenance strategy is applied to such systems. In the third and last part, the concept of multi-component systems is extended to manufacturing systems with multiple machines. In this context, this part focuses on the development of an integrated production-maintenance policy for a production system consisting of two machines in parallel in presence of a form of stochastic dependency between them
373

Provisionnement en assurance non-vie pour des contrats à maturité longue et à prime unique : application à la réforme Solvabilité 2 / Provisioning in non life insurance for contracts with long maturities and unique premium : Application to Solvency 2 reform

Nichil, Geoffrey 19 December 2014 (has links)
Nous considérons le cas d’un assureur qui doit indemniser une banque à la suite de pertes liées à un défaut de remboursement de ses emprunteurs. Les modèles couramment utilisés sont collectifs et ne permettent pas de prendre en compte les comportements individuels des emprunteurs. Dans une première partie nous définissons un modèle pour étudier le montant des pertes liées à ces défauts de paiement (provision) pour une période donnée. La quantité clé de notre modèle est le montant d’un défaut. Pour un emprunteur j et une date de fin de prêt Tj , ce montant vaut max(Sj Tj -Rj Tj ; 0), où Sj Tj est le montant dû par l’emprunteur et dépend de la durée et du montant du prêt, et Rj Tj est le montant de la revente du bien immobilier financé par le prêt. Rj Tj est proportionnel au montant emprunté; le coefficient de proportionnalité est modélisé par un mouvement Brownien géométrique et représente les fluctuations des prix de l’immobilier. La loi des couples (Date de fin du prêt, Durée du prêt) est modélisée par un processus ponctuel de Poisson. La provision Ph, où h est la durée maximale des contrats considérés, est alors définie comme la somme d’un nombre aléatoire de montants de défauts individuels. Nous pouvons ainsi calculer l’espérance et la variance de la provision mais aussi donner un algorithme de simulation. Il est également possible d’estimer les paramètres liés au modèle et de fournir une valeur numérique aux quantiles de la provision. Dans une deuxième partie nous nous intéresserons au besoin de solvabilité associé au risque de provisionnement (problématique imposée par la réforme européenne Solvabilité 2). La question se ramène à étudier le comportement asymptotique de Ph lorsque h ! +1. Nous montrons que Ph, convenablement normalisée, converge en loi vers une variable aléatoire qui est la somme de deux variables dont l’une est gaussienne / We consider an insurance company which has to indemnify a bank against losses related to a borrower defaulting on payments. Models normally used by insurers are collectives and do not allows to take into account the personal characteristics of borrowers. In a first part, we defined a model to evaluate potential future default amounts (provision) over a fixed period.The amount of default is the key to our model. For a borrower j and an associated maturity Tj, this amount is max(Sj Tj -Rj Tj ; 0), where Sj Tj is the outstanding amount owed by the borrower and depends on the borrowed amount and the term of the loan, and Rj Tj is the property sale amount. Rj Tj is proportionate to the borrowed amount; the proportionality coefficient is modeled by a geometric Brownian motion and represents the fluctuation price of real estate. The couples (Maturity of the loan, Term of the loan) are modeled by a Poisson point process. The provision Ph, where h is the maximum duration of the loans, is defined as the sum of the random number of individual defaults amounts. We can calculate the mean and the variance of the provision and also give an algorithm to simulate the provision. It is also possible to estimate the parameters of our model and then give a numerical value of the provision quantile. In the second part we will focus on the solvency need due to provisioning risk (topic imposed by the european Solvency 2 reform). The question will be to study the asymptotic behaviour of Ph when h ! +1. We will show that Ph, well renormalized, converges in law to a random variable which is the sum of two random variables whose one is a Gaussian
374

Modèles cellulaires de champs neuronaux dynamiques / Cellular model of dynamic neural fields

Chappet de Vangel, Benoît 14 November 2016 (has links)
Dans la recherche permanente de solutions pour dépasser les limitations de plus en plus visibles de nos architectures matérielles, le calcul non-conventionnel offre des alternatives variées comme l’ingénierie neuromorphique et le calcul cellulaire. Comme von Neumann qui s’était initialement inspiré du cerveau pour concevoir l’architecture des ordinateurs, l’ingénierie neuromorphique prend la même inspiration en utilisant un substrat analogique plus proche des neurones et des synapses. Le calcul cellulaire s’inspire lui des substrats de calcul naturels (chimique, physiques ou biologiques) qui imposent une certaine localité des calculs de laquelle va émerger une organisation et des calculs. La recherche sur les mécanismes neuronaux permet de comprendre les grands principes de calculs émergents des neurones. Un des grands principes que nous allons utiliser dans cette thèse est la dynamique d’attracteurs d’abord décrite par Amari (champs neuronaux dynamiques, ou DNF pour dynamic neural fields), Amit et Zhang (réseaux de neurones à attracteurs continus). Ces champs de neurones ont des propriétés de calcul variées mais sont particulièrement adaptés aux représentations spatiales et aux fonctions des étages précoces du cortex visuel. Ils ont été utilisés entre autres dans des applications de robotique autonome, dans des tâches de classification et clusterisation. Comme de nombreux modèles de calcul neuronal, ils sont également intéressants du point de vue des architectures matérielles en raison de leur robustesse au bruit et aux fautes. On voit donc l’intérêt que ces modèles de calcul peuvent avoir comme solution permettant de dépasser (ou poursuivre) la loi de Moore. La réduction de la taille des transistors provoque en effet beaucoup de bruit, de même que la relaxation de la contrainte de ~ 0% de fautes lors de la production ou du fonctionnement des circuits permettrait d’énormes économies. Par ailleurs, l’évolution actuelle vers des circuits many-core de plus en plus distribués implique des difficultés liées au mode de calcul encore centralisés de la plupart des modèles algorithmiques parallèles, ainsi qu’au goulot d’étranglement des communications. L’approche cellulaire est une réponse naturelle à ces enjeux. Partant de ces différents constats, l’objectif de cette thèse est de rendre possible les calculs et applications riches des champs neuronaux dynamiques sur des substrats matériels grâce à des modèles neuro-cellulaires assurant une véritable localité, décentralisation et mise à l’échelle des calculs. Cette thèse est donc une proposition argumentée pour dépasser les limites des architectures de type von Neumann en utilisant des principes de calcul neuronal et cellulaire. Nous restons cependant dans le cadre numérique en explorant les performances des architectures proposées sur FPGA. L’utilisation de circuits analogiques (VLSI) serait tous aussi intéressante mais n’est pas étudiée ici. Les principales contributions sont les suivantes : 1) Calcul DNF dans un environnement neuromorphique ; 2) Calcul DNF avec communication purement locale : modèle RSDNF (randomly spiking DNF) ; 3) Calcul DNF avec communication purement locale et asynchrone : modèle CASAS-DNF (cellular array of stochastic asynchronous spiking DNF). / In the constant search for design going beyond the limits of the von Neumann architecture, non conventional computing offers various solutions like neuromorphic engineering and cellular computing. Like von Neumann who roughly reproduced brain structures to design computers architecture, neuromorphic engineering takes its inspiration directly from neurons and synapses using analog substratum. Cellular computing influence comes from natural substratum (chemistry, physic or biology) imposing locality of interactions from which organisation and computation emerge. Research on neural mechanisms was able to demonstrate several emergent properties of the neurons and synapses. One of them is the attractor dynamics described in different frameworks by Amari with the dynamic neural fields (DNF) and Amit and Zhang with the continuous attractor neural networks. These neural fields have various computing properties and are particularly relevant for spatial representations and early stages of visual cortex processing. They were used, for instance, in autonomous robotics, classification and clusterization. Similarly to many neuronal computing models, they are robust to noise and faults and thus are good candidates for noisy hardware computation models which would enable to keep up or surpass the Moore law. Indeed, transistor area reductions is leading to more and more noise and the relaxation of the approx. 0% fault during production and operation of integrated circuits would lead to tremendous savings. Furthermore, progress towards many-cores circuits with more and more cores leads to difficulties due to the centralised computation mode of usual parallel algorithms and their communication bottleneck. Cellular computing is the natural answer to these problems. Based on these different arguments, the goal of this thesis is to enable rich computations and applications of dynamic neural fields on hardware substratum with neuro-cellular models enabling a true locality, decentralization and scalability of the computations. This work is an attempt to go beyond von Neumann architectures by using cellular and neuronal computing principles. However, we will stay in the digital framework by exploring performances of proposed architectures on FPGA. Analog hardware like VLSI would also be very interesting but is not studied here. The main contributions of this work are : 1) Neuromorphic DNF computation ; 2) Local DNF computations with randomly spiking dynamic neural fields (RSDNF model) ; 3) Local and asynchronous DNF computations with cellular arrays of stochastic asynchronous spiking DNFs (CASAS-DNF model).
375

Option prices in stochastic volatility models / Prix d’options dans les modèles à volatilité stochastique

Terenzi, Giulia 17 December 2018 (has links)
L’objet de cette thèse est l’étude de problèmes d’évaluation d’options dans les modèles à volatilité stochastique. La première partie est centrée sur les options américaines dans le modèle de Heston. Nous donnons d’abord une caractérisation analytique de la fonction de valeur d’une option américaine comme l’unique solution du problème d’obstacle parabolique dégénéré associé. Notre approche est basée sur des inéquations variationelles dans des espaces de Sobolev avec poids étendant les résultats récents de Daskalopoulos et Feehan (2011, 2016) et Feehan et Pop (2015). On étudie aussi les propriétés de la fonction de valeur d’une option américaine. En particulier, nous prouvons que, sous des hypothèses convenables sur le payoff, la fonction de valeur est décroissante par rapport à la volatilité. Ensuite nous nous concentrons sur le put américaine et nous étendons quelques résultats qui sont bien connus dans le monde Black-Scholes. En particulier nous prouvons la convexité stricte de la fonction de valeur dans la région de continuation, quelques propriétés de la frontière libre, la formule de Prime d’Exercice Anticipée et une forme faible de la propriété du smooth fit. Les techniques utilisées sont de type probabiliste. Dans la deuxième partie nous abordons le problème du calcul numérique du prix des options européennes et américaines dans des modèles à volatilité stochastiques et avec sauts. Nous étudions d’abord le modèle de Bates-Hull-White, c’est-à-dire le modèle de Bates avec un taux d’intérêt stochastique. On considère un algorithme hybride rétrograde qui utilise une approximation par chaîne de Markov (notamment un arbre “avec sauts multiples”) dans la direction de la volatilité et du taux d’intérêt et une approche (déterministe) par différence finie pour traiter le processus de prix d’actif. De plus, nous fournissons une procédure de simulation pour des évaluations Monte Carlo. Les résultats numériques montrent la fiabilité et l’efficacité de ces méthodes. Finalement, nous analysons le taux de convergence de l’algorithme hybride appliqué à des modèles généraux de diffusion avec sauts. Nous étudions d’abord la convergence faible au premier ordre de chaînes de Markov vers la diffusion sous des hypothèses assez générales. Ensuite nous prouvons la convergence de l’algorithme: nous étudions la stabilité et la consistance de la méthode hybride par une technique qui exploite les caractéristiques probabilistes de l’approximation par chaîne de Markov / We study option pricing problems in stochastic volatility models. In the first part of this thesis we focus on American options in the Heston model. We first give an analytical characterization of the value function of an American option as the unique solution of the associated (degenerate) parabolic obstacle problem. Our approach is based on variational inequalities in suitable weighted Sobolev spaces and extends recent results of Daskalopoulos and Feehan (2011, 2016) and Feehan and Pop (2015). We also investigate the properties of the American value function. In particular, we prove that, under suitable assumptions on the payoff, the value function is nondecreasing with respect to the volatility variable. Then, we focus on an American put option and we extend some results which are well known in the Black and Scholes world. In particular, we prove the strict convexity of the value function in the continuation region, some properties of the free boundary function, the Early Exercise Price formula and a weak form of the smooth fit principle. This is done mostly by using probabilistic techniques.In the second part we deal with the numerical computation of European and American option prices in jump-diffusion stochastic volatility models. We first focus on the Bates-Hull-White model, i.e. the Bates model with a stochastic interest rate. We consider a backward hybrid algorithm which uses a Markov chain approximation (in particular, a “multiple jumps” tree) in the direction of the volatility and the interest rate and a (deterministic) finite-difference approach in order to handle the underlying asset price process. Moreover, we provide a simulation scheme to be used for Monte Carlo evaluations. Numerical results show the reliability and the efficiency of the proposed methods.Finally, we analyze the rate of convergence of the hybrid algorithm applied to general jump-diffusion models. We study first order weak convergence of Markov chains to diffusions under quite general assumptions. Then, we prove the convergence of the algorithm, by studying the stability and the consistency of the hybrid scheme, in a sense that allows us to exploit the probabilistic features of the Markov chain approximation
376

Adaptation de la modélisation hybride eulérienne/lagrangienne stochastique de Code_Saturne à la dispersion atmosphérique de polluants à l’échelle micro-météorologique et comparaison à la méthode eulérienne / Adaptation of the hybrid Eulerian/Lagrangian stochastic model of the CFD code Code_Saturne to pollutant atmospheric dispersion at the micro-meteorological scale and comparison with the Eulerian method

Bahlali, Meïssam 19 October 2018 (has links)
Cette thèse s'inscrit dans un projet de modélisation numérique de la dispersion atmosphérique de polluants à travers le code de mécanique des fluides numérique Code_Saturne. L'objectif est de pouvoir simuler la dispersion atmosphérique de polluants en environnement complexe, c'est-à-dire autour de centrales, sites industriels ou en milieu urbain. Dans ce contexte, nous nous concentrons sur la modélisation de la dispersion des polluants à micro-échelle, c'est-à-dire pour des distances de l'ordre de quelques mètres à quelques kilomètres et correspondant à des échelles de temps de l'ordre de quelques dizaines de secondes à quelques dizaines de minutes : on parle de modélisation en champ proche. L’approche suivie dans ces travaux de recherche suit une formulation hybride eulérienne/lagrangienne, où les champs dynamiques moyens relatifs au fluide porteur (pression, vitesse, température, turbulence) sont calculés via une approche eulérienne et sont ensuite fournis au solveur lagrangien. Ce type de formulation est couramment utilisé dans la littérature atmosphérique pour son efficacité numérique. Le modèle lagrangien stochastique considéré dans nos travaux est le Simplified Langevin Model (SLM), développé par Pope (1985,2000). Ce modèle appartient aux méthodes communément appelées méthodes PDF (Probability Density Function), et, à notre connaissance, n'a pas été exploité auparavant dans le contexte de la dispersion atmosphérique. Premièrement, nous montrons que le SLM respecte le critère dit de mélange homogène (Thomson, 1987). Ce critère, essentiel pour juger de la bonne qualité d'un modèle lagrangien stochastique, correspond au fait que si des particules sont initialement uniformément réparties dans un fluide incompressible, alors elles doivent le rester. Nous vérifions le bon respect du critère de mélange homogène pour trois cas de turbulence inhomogène représentatifs d'une large gamme d'applications pratiques : une couche de mélange, un canal plan infini, ainsi qu'un cas de type atmosphérique mettant en jeu un obstacle au sein d'une couche limite neutre. Nous montrons que le bon respect du critère de mélange homogène réside simplement en la bonne introduction du terme de gradient de pression en tant que terme de dérive moyen dans le modèle de Langevin (Pope, 1987; Minier et al., 2014; Bahlali et al., 2018c). Nous discutons parallèlement de l'importance de la consistance entre champs eulériens et lagrangiens dans le cadre de telles formulations hybrides eulériennes/lagrangiennes. Ensuite, nous validons le modèle dans le cas d'un rejet de polluant ponctuel et continu, en conditions de vent uniforme et turbulence homogène. Dans ces conditions, nous disposons en effet d'une solution analytique nous permettant une vérification précise. Nous observons que dans ce cas, le modèle lagrangien discrimine bien les deux différents régimes de diffusion de champ proche et champ lointain, ce qui n'est pas le cas d'un modèle eulérien à viscosité turbulente (Bahlali et al., 2018b).Enfin, nous travaillons sur la validation du modèle sur plusieurs campagnes expérimentales en atmosphère réelle, en tenant compte de la stratification thermique de l'atmosphère et de la présence de bâtiments. Le premier programme expérimental considéré dans nos travaux concerne le site du SIRTA (Site Instrumental de Recherche par Télédétection Atmosphérique), dans la banlieue sud de Paris, et met en jeu une stratification stable de la couche limite atmosphérique. La seconde campagne étudiée est l'expérience MUST (Mock Urban Setting Test). Réalisée aux Etats-Unis, dans le désert de l'Utah, cette expérience a pour but de représenter une ville idéalisée, au travers d'un ensemble de lignées de conteneurs. Deux rejets ont été simulés et analysés, respectivement en conditions d'atmosphère neutre et stable (Bahlali et al., 2018a) / This Ph.D. thesis is part of a project that aims at modeling pollutant atmospheric dispersion with the Computational Fluid Dynamics code Code_Saturne. The objective is to simulate atmospheric dispersion of pollutants in a complex environment, that is to say around power plants, industrial sites or in urban areas. In this context, the focus is on modeling the dispersion at micro-scale, that is for distances of the order of a few meters to a few kilometers and corresponding to time scales of the order of a few tens of seconds to a few tens of minutes: this is also called the near field area. The approach followed in this thesis follows a hybrid Eulerian/Lagrangian formulation, where the mean dynamical fields relative to the carrier fluid (pressure, velocity, temperature, turbulence) are calculated through an Eulerian approach and are then provided to the Lagrangian solver. This type of formulation is commonly used in the atmospheric literature for its numerical efficiency. The Lagrangian stochastic model considered in our work is the Simplified Langevin Model (SLM), developed by Pope (1985,2000). This model belongs to the methods commonly referred to as PDF (Probability Density Function) methods, and, to our knowledge, has not been used before in the context of atmospheric dispersion. First, we show that the SLM meets the so-called well-mixed criterion (Thomson, 1987). This criterion, essential for any Lagrangian stochastic model to be regarded as acceptable, corresponds to the fact that if particles are initially uniformly distributed in an incompressible fluid, then they must remain so. We check the good respect of the well-mixed criterion for three cases of inhomogeneous turbulence representative of a wide range of practical applications: a mixing layer, an infinite plane channel, and an atmospheric-like case involving an obstacle within a neutral boundary layer. We show that the good respect of the well-mixed criterion lies simply in the good introduction of the pressure gradient term as the mean drift term in the Langevin model (Pope, 1987; Minier et al., 2014; Bahlali et al., 2018c). Also, we discuss the importance of consistency between Eulerian and Lagrangian fields in the framework of such Eulerian/Lagrangian hybrid formulations. Then, we validate the model in the case of continuous point source pollutant dispersion, under uniform wind and homogeneous turbulence. In these conditions, there is an analytical solution allowing a precise verification. We observe that in this case, the Lagrangian model discriminates well the two different near- and far-field diffusion regimes, which is not the case for an Eulerian model based on the eddy-viscosity hypothesis (Bahlali et al., 2018b).Finally, we work on the validation of the model on several experimental campaigns in real atmosphere, taking into account atmospheric thermal stratification and the presence of buildings. The first experimental program considered in our work has been conducted on the `SIRTA' site (Site Instrumental de Recherche par Télédétection Atmosphérique), in the southern suburb of Paris, and involves a stably stratified surface layer. The second campaign studied is the MUST (Mock Urban Setting Test) experiment. Conducted in the United States, in Utah's desert, this experiment aims at representing an idealized city, through several ranges of containers. Two cases are simulated and analyzed, respectively corresponding to neutral and stable atmospheric stratifications (Bahlali et al., 2018a)
377

Contributions to functional inequalities and limit theorems on the configuration space / Inégalités fonctionnelles et théorèmes limites sur l'espace des configurations

Herry, Ronan 03 December 2018 (has links)
Nous présentons des inégalités fonctionnelles pour les processus ponctuels. Nous prouvons une inégalité de Sobolev logarithmique modifiée, une inégalité de Stein et un théorème du moment quatrième sans terme de reste pour une classe de processus ponctuels qui contient les processus binomiaux et les processus de Poisson. Les preuves reposent sur des techniques inspirées de l'approche de Malliavin-Stein et du calcul avec l'opérateur $Gamma$ de Bakry-Émery. Pour mettre en œuvre ces techniques nous développons une analyse stochastique pour les processus ponctuels. Plus généralement, nous mettons au point une théorie d'analyse stochastique sans hypothèse de diffusion. Dans le cadre des processus de Poisson ponctuels, l'inégalité de Stein est généralisée pour étudier la convergence stable vers des limites conditionnellement gaussiennes. Nous appliquons ces résultats pour approcher des processus Gaussiens par des processus de Poisson composés et pour étudier des graphes aléatoires. Nous discutons d'inégalités de transport et de leur conséquence en termes de concentration de la mesure pour les processus binomiaux dont la taille de l'échantillon est aléatoire. Sur un espace métrique mesuré quelconque, nous présentons un développement de la concentration de la mesure qui prend en compte l'agrandissement parallèle d'ensembles disjoints. Cette concentration améliorée donne un contrôle de toutes les valeurs propres du Laplacien métrique. Nous discutons des liens de cette nouvelle notion avec une version de la courbure de Ricci qui fait intervenir le transport à plusieurs marginales / We present functional inequalities and limit theorems for point processes. We prove a modified logarithmic Sobolev inequalities, a Stein inequality and a exact fourth moment theorem for a large class of point processes including mixed binomial processes and Poisson point processes. The proofs of these inequalities are inspired by the Malliavin-Stein approach and the $Gamma$-calculus of Bakry-Emery. The implementation of these techniques requires a development of a stochastic analysis for point processes. As point processes are essentially discrete, we design a theory to study non-diffusive random objects. For Poisson point processes, we extend the Stein inequality to study stable convergence with respect to limits that are conditionally Gaussian. Applications to Poisson approximations of Gaussian processes and random geometry are given. We discuss transport inequalities for mixed binomial processes and their consequences in terms of concentration of measure. On a generic metric measured space, we present a refinement of the notion of concentration of measure that takes into account the parallel enlargement of distinct sets. We link this notion of improved concentration with the eigenvalues of the metric Laplacian and with a version of the Ricci curvature based on multi-marginal optimal transport
378

Optimisation multicritères et applications aux systèmes multi-processeurs embarqués / Multi-Criteria Optimization and its Application to Multi-Processor Embedded Systems

Legriel, Julien 04 October 2011 (has links)
Dans cette thèse nous développons de nouvelles techniques pour résoudre les problèmes d'optimisation multi-critère. Ces problèmes se posent naturellement dans de nombreux domaines d'application (sinon tous) où les choix sont évalués selon différents critères conflictuels (coûts et performance par exemple). Contrairement au cas de l'optimisation classique, de tels problèmes n'admettent pas en général un optimum unique mais un ensemble de solutions incomparables, aussi connu comme le front de Pareto, qui représente les meilleurs compromis possibles entre les objectifs conflictuels. La contribution majeure de la thèse est le développement d'algorithmes pour trouver ou approximer ces solutions de Pareto pour les problèmes combinatoires difficiles. Plusieurs problèmes de ce type se posent naturellement lors du processus de placement et d'ordonnancement d'une application logicielle sur une architecture multi-coeur comme P2012, qui est actuellement développé par STMicroelectronics. / In this thesis we develop new techniques for solving multi-criteria optimization problems. Such problems arise naturally in many (if not all) application domains where choices are evaluated according to two or more conflicting criteria such as price vs. performance. Unlike ordinary optimization, such problems typically do not admit a unique optimum but a set of incomparable solutions, also known as the Pareto Front, which represent the best possible trade-offs between the conflicting goals. The major contribution of the thesis is the development of algorithms for finding or approximating these Pareto solutions for hard combinatorial problems that arise naturally in the process of mapping and scheduling application software on multi-core architectures such as P2012 which is currently being developed by ST Microelectronics.
379

Reverse-time modeling of channelized meandering systems from geological observations / Modélisation rétro-chronologique de systèmes chenalisés méandriformes à partir d’observations géologiques

Parquer, Marion 05 April 2018 (has links)
Les systèmes méandriformes constituent la plupart des rivières terrestres ou sous-marines qui modèlent les paysages par leur évolution temporelle et spatiale. Les témoins de leur évolution peuplent les plaines traversées par celles-ci. Parmi eux, des barres d’accrétion latérale témoignant de la migration des boucles du chenal peuvent être identifiées, tout comme des méandres abandonnés par simplification naturelle de la trajectoire du chenal ou encore des chenaux entiers abandonnés lors d’un changement de direction principale du chenal par avulsion. La diversité et le volume des dépôts résultant font des systèmes chenalisés, une fois enfouis, de bons candidats pour le stockage de ressources naturelles. L’étude de la disposition des différents faciès est donc cruciale pour leur exploitation. Les techniques d’imagerie satellitaire ou LIDAR permettent l’étude des systèmes actuels. L’architecture en subsurface peut être imagée globalement par image sismique ou GPR, ou localement par des puits d’investigation. Ces techniques permettent d’avoir une bonne évaluation du dernier état du système chenalisé. Les états précédents, quant à eux, peuvent être observés par morceaux lorsqu’ils ont été épargnés par l’érosion. En effet, le remaniement de la ceinture de méandres par migration latérale des chenaux rend souvent difficile l’analyse des états antérieurs que ce soit en termes de géométrie ou de chronologie des dépôts. Cette thèse propose une méthode de simulation des systèmes chenalisés qui respecte au mieux les différentes informations disponibles. Parmi celles-ci, souvent, l’image sismique permet d’identifier le dernier état du système et des boucles de méandres abandonnés en contrastant avec la ceinture de méandres par des dépôts souvent plus argileux et datant de la période succédant l’abandon. Des barres d’accrétion latérale peuvent aussi être observées, témoignant des directions de migration des méandres. Parfois, des données de puits sont aussi accessibles et informent sur la nature des faciès rencontrés (e.g., sableux, argileux). La méthode présentée dans ce manuscrit part du dernier état du système observé sur l’image sismique. Une simulation en temps inversé de la migration du chenal, inspirée par l’analyse des cartes chronologiques du Mississippi, est appliquée et permet, pas de temps par pas de temps, de retrouver de potentiels états antérieurs. Selon une simulation de la chronologie estimée par des critères spatiaux et statistiques (e.g., distance et orientation au chenal courant, probabilité d’abandon), les méandres abandonnés sont intégrés à l’étape de temps voulue dans le chenal principal. Les boucles de méandres disparues par érosion sont compensées par la simulation d’autres méandres dans la ceinture de méandres. Cette simulation respecte les critères géométriques observés sur les méandres épargnés par l’érosion mais également d’autres critères statistiques tels que la probabilité d’érosion observée sur des analogues sédimentaires tels que le Mississippi. Cette approche ouvre la possibilité d’honorer les faciès observés sur les puits par la simulation de méandres abandonnés en ces points. Elle a été appliquée sur divers jeux de données bidimensionnels satellite ou sismique / Meandering systems constitute the majority of aerial and sub-marine rivers which shape the landscapes by their temporal and spatial evolution. The witnesses of this evolution can be observed on the plains crossed by these channels. Among them, lateral point bar resulting from the channel migration but also abandoned meanders created by the natural stream rectifying and abandoned channels originating from the main direction change by avulsion. Once buried, the channelized systems are good candidates for natural resources storage thanks to the diversity and the volume of the resulting deposits. The understanding of the internal architecture of facies is thus crucial for resource exploitation. Satellite and LIDAR images permit current system studies. Subsurface architecture can be imaged by seismic images, GPR or LIDAR. These techniques give a good evaluation of the system last channel path. However, anterior stages, when spared by the erosion can be observed locally. Indeed, the reworking of the channel belt by lateral and downstream migration makes it difficult to observe the geometric or chronologic features of anterior deposits. This thesis proposes a simulation method of channelized systems conditioning to available information. Among them, the seismic image often permits to identify the last system stage and the abandoned meanders thanks to their muddy filling after the abandonment time contrasting with the channel belt. Lateral point bars can also be observed, witnessing of meander paleo-migration direction. Sometimes, well data inform on the facies (e.g., muddy, sandy). The method presented here starts from the last channel path observed on the seismic image and go back in time by reverse migration to reconstruct anterior channel paths. This stochastic migration model is inspired by the analysis of historic Mississippi maps. According to a chronology simulation based on spatial and statistical criteria (e.g., distance and orientation to the current channel, abandonment probability distribution), abandoned meanders are integrated at the relevant time step inside the main channel path. Erosion of abandoned meanders is addressed by abandoned meander simulation inside the meander belt. This stochastic simulation conditions to geometrical criteria observed on the abandoned meanders spared by the erosion but also to statistical criteria observed on sedimentary analogs such as the Mississippi river (e.g., erosion probability distribution). One of the main perspectives is to condition to well data through the simulation of abandoned meanders. This technique has been applied on two satellite and seismic 2D case studies
380

Paramétrisations stochastiques de processus biogéochimiques non résolus dans un modèle couplé NEMO/PISCES de l'Atlantique Nord : Applications pour l'assimilation de données de la couleur de l'océan / Stochastic parameterizations of unresolved biogeochemical processes in a coupled NEMO/PISCES model of the north Atlantic

Garnier, Florent 10 May 2016 (has links)
En dépit de progrès croissants durant la dernière décennie, la complexité des écosystèmes marins est encore imparfaitement simulée par les modèles.Les formulations des processus biogéochimiques sont en général établies de manière empirique et contraintes par une multitude de paramètres.Il est ainsi généralement admis que leurs incertitudes impactent fortement l'estimation de la production primaire, dont le rôle dans le cycle du carbone est primordial.Analyser les impacts de l'incertitude des modèles est donc nécessaire pour améliorer la représentation des caractéristiques biogéochimiques de l'océan.Dans le contexte d'assimilation de données de la couleur de l'océan, la définition des erreurs de prévision représente de plus un important verrou aux performances des systèmes.Ces points seront analysés dans cette thèse. L'objectif sera d'examiner, dans un contexte de modélisation/assimilation, la pertinence d'utiliser une approche probabiliste basée sur une simulation explicite des incertitudes biogéochimiques du modèle couplé au 1/4° NEMO/PISCES sur l'océan Atlantique Nord.A partir d'une simulation déterministe du modèle PISCES, nous proposerons une méthode pour générer des processus aléatoires, AR(1), permettant d'inclure des structures spatiales et temporelles de corrélations.A chaque pas de temps, ces perturbations aléatoires seront ensuite introduites dans le modèle par l'intermédiaire de paramétrisations stochastiques.Elles simuleront 2 différentes classes d'incertitudes: les incertitudes sur les paramètres biogéochimiques du modèle et les incertitudes dues aux échelles non résolues dans le cas d'équations non linéaires. L'utilisation de paramétrisations stochastiques permettra ainsi d'élaborer une version probabiliste du modèle PISCES, à partir de laquelle nous pourrons réaliser une simulation d'ensemble de 60 membres.La pertinence de cette simulation d'ensemble sera évaluée par comparaison avec les observations de la couleur de l'océan SeaWIFS. Nous montrerons en particulier que la simulation d'ensemble conserve les structures de grande échelle présentes dans la simulation déterministe.En utilisant les distributions de probabilité définies par les membres de l'ensemble, nous montrerons que l'ensemble capture l'information des observations avec une bonne estimation de leurs statistiques d'erreur (fiabilité statistique). L'intérêt de l'approche probabiliste sera ainsi d'abord évalué dans un contexte de modélisation biogéochimique. / In spite of recent advances, biogeochemical models are still unable to represent the full complexity of marine ecosystems.Since mathematical formulations are still based on empirical laws involving many parameters, it is now well established that the uncertainties inherent to the biogeochemical complexity strongly impact the model response.Improving model representation therefore requires to properly describe model uncertainties and their consequences.Moreover, in the context of ocean color data assimilation, one of the major issue rely on our ability to characterize the model uncertainty (or equivalently the model error) in order to maximize the efficiency of the assimilation system.This is exactly the purpose of this PhD which investigates the potential of using random processes to simulate some biogeochemical uncertaintiesof the 1/4° coupled physical–biogeochemical NEMO/PISCES model of the North Atlantic ocean.Starting from a deterministic simulation performed with the original PISCES formulation, we propose a genericmethod based on AR(1) random processes to generate perturbations with temporal and spatial correlations.These perturbations are introduced into the model formulations to simulate 2 classes of uncertainties: theuncertainties on biogeochemical parameters and the uncertainties induced by unresolved scales in the presenceof non-linear processes. Using these stochastic parameterizations, a probabilistic version of PISCES is designedand a 60-member ensemble simulation is performed.The implications of this probabilistic approach is assessed using the information of the probability distributions given of this ensemble simulationThe relevance and the impacts of the stochastic parameterizations are assessed from a comparison with SeaWIFS satellite data.In particular, it is shown that the ensemble simulation is able to produce a better estimate of the surface chlorophyll concentration than the first guess deterministic simulation.Using SeaWIFS ocean color data observations, the statistical consistency (reliability) of this prior ensemble is demonstrated using rank histograms.Finally, the relevance of our approach in the prospect of ocean color data assimilation is demonstrated by considering a 3D optimal analysis of the ensemble (one updateat one time step) performed from the statistic errors of the stochastic ensemble simulation previously stated.During this experiment, the high resolution SeaWIFS ocean color data are assimilated using a Ensemble Transform Kalman Filter (ETKF) analysis scheme and the non gaussian behaviour and non linear relationshipbetween variables are taken into account using anamorphic transformations.More specifically, we show that the analysis of SeaWIFS data improves the representation and the ensemble statistics of chlorophyll concentrations.

Page generated in 0.051 seconds