• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Diagnostic des systèmes aéronautiques et réglage automatique pour la comparaison de méthodes

Marzat, Julien 04 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire contribuent à la définition de méthodes pour la détection et le diagnostic de défauts affectant les systèmes aéronautiques. Un système représentatif sert de support d'étude, constitué du modèle non linéaire à six degrés de liberté d'un missile intercepteur, de ses capteurs et actionneurs ainsi que d'une boucle de guidage-pilotage. La première partie est consacrée au développement de deux méthodes de diagnostic exploitant l'information de commande en boucle fermée et les caractéristiques des modèles aéronautiques. La première méthode utilise les objectifs de commande induits par les lois de guidage-pilotage pour générer des résidus indiquant la présence de défauts. Ceci permet la détection des défauts sur les actionneurs et les capteurs, ainsi que leur localisation pour ces derniers. La deuxième méthode exploite la mesure de dérivées des variables d'état (via une centrale inertielle) pour estimer la valeur de la commande réalisée par les actionneurs, sans intégration du modèle non linéaire du système. Le diagnostic est alors effectué en comparant cette estimée avec la valeur désirée, ce qui permet la détection, la localisation et l'identification de défauts multiples sur les actionneurs.La seconde partie propose une méthodologie de réglage automatique des paramètres internes (les hyperparamètres) de méthodes de diagnostic. Ceci permet une comparaison plus objective entre les méthodes en évaluant la meilleure performance de chacune. Le réglage est vu comme un problème d'optimisation globale, la fonction à optimiser étant calculée via la simulation numérique (potentiellement coûteuse) de cas test. La méthodologie proposée est fondée sur un métamodèle de krigeage et une procédure itérative d'optimisation bayésienne, qui permettent d'aborder ce problème à faible coût de calcul. Un nouvel algorithme est proposé afin d'optimiser les hyperparamètres d'une façon robuste vis à vis de la variabilité des cas test pertinents.Mots clés : détection et diagnostic de défauts, guidage-pilotage, krigeage, minimax continu, optimisation globale, redondance analytique, réglage automatique, systèmes aéronautiques.
62

Analyse statistique des valeurs extrêmes de précipitation : application dans la région Cévennes-Vivarais

Nguyen, Thi Phuong Thao 25 February 1993 (has links) (PDF)
Ce travail consiste à choisir une méthode statistique d'ajustement des valeurs extrêmes et à l'appliquer aux précipitations extrêmes dans la région Cévennes - Vivarais. La première partie est réalisée à partir de valeurs simulées. La méthode non-paramétrique de Villasenor qui n'impose pas au début de l'analyse une loi statistique à la série de données, est choisie comme la meilleure méthode parmi les cinq méthodes d'ajustements. Dans la deuxième partie les caractéristiques pluviométriques de la région Cévennes - Vivarais sont calculées à partir de mesures horaires de 52 stations par la méthode choisie. La cartographie des caractéristiques pluviométriques de cette région est réalisée par les méthodes : spline et krigeage. La méthode krigeage donne une meilleure interpolation que celle de spline, et fournit encore des informations sur la structure spatiale de la région. Les cartes tracées représentent une distribution réaliste des valeurs extrêmes de précipitation de la région Cévennes - Vivarais.
63

Influence de la structure spatiale des pluies et du bassin versant sur les écoulements en réseau. Approche à l'aide du logiciel EAUSER. Application à Saint-Etienne

Voignier, Pierre 03 April 1990 (has links) (PDF)
La thèse est structurée en trois chapitres. Dans le premier, on rappelle brièvement le contexte historique et législatif de l'évolution de l'assainissement en Europe. Le deuxième chapitre s'intéresse à l'étude diagnostic du réseau d'assainissement de la ville de Saint-Etienne, tant sur les plans quantitatif que qualitatif. Pour cela, nous développons un logiciel de simulation dont l'originalité réside dans sa structure informatique. Nous effectuons une étude de la pluviométrie locale, nous localisons les points de dysfonctionnement par la simulation et nous analysons l'impact des rejets stéphanois en phosphore sur la qualité des eaux de la Loire. Le troisième chapitre essaie par des développements méthodologiques de répondre aux questions soulevées précédemment, tout d'abord par une étude visant à caractériser les structures spatiales des pluies en utilisant des techniques issues de l'analyse de données, ensuite par une étude de sensibilité du modèle d'écoulement à la distribution spatiale de la pluie, au coefficient de ruissellement et au temps de réponse de bassins versants élémentaires, enfin par une dernière étude visant à déterminer la localisation optimale du réseau de pluviographes, en utilisant la technique du krigeage, en y intégrant la structure spatiale de la pluie et les coefficients de ruissellement des bassins versants
64

Compréhension moléculaire et prédiction des propriétés physicochimiques dans les produits pétroliers / Molecular understanding and prediction of physicochemical properties in petroleum products

Da Costa Soares, Jean-Jérôme 14 December 2017 (has links)
La diminution en pétrole brut léger nécessite de convertir les fractions lourdes en produits valorisables (essences, gazoles, huiles, etc.). Dans ce contexte, l'hydrocraquage (HCK) fournit des produits de très haute qualité à partir de distillats sous vide (DSV) du pétrole brut. La qualité des coupes obtenues est caractérisée par des propriétés physico-chimiques qui sont soumises à des spécifications. L'optimisation du procédé nécessite des expérimentations longues et coûteuses. IFPEN a donc de plus en plus recours à des tests sur unité d'expérimentation haut débit (EHD). Ces derniers posent cependant un problème d'accessibilité aux coupes d'intérêt. Par ailleurs, pour comprendre et prédire l'impact des conditions opératoires sur la qualité des produits, des simulateurs sont développés. Certaines propriétés de produits sont cependant complexes et difficiles à modéliser voire mal comprises. Ce travail de thèse a porté sur l'amélioration de la compréhension moléculaire des propriétés produits pour une meilleure prédiction. Dans cette étude, nous nous sommes focalisés sur le point de trouble (PT) de la coupe gazole et l'indice de viscosité (VI) de l'huile obtenue lors de l'hydrocraquage de DSV. Deux techniques d'analyse moléculaire ont été utilisées : la chromatographie en phase gazeuse bidimensionnelle (GC×GC) qui permet de déterminer la composition par famille chimique des différentes coupes et la résonance magnétique nucléaire (RMN) du 13C qui fournit des informations sur la structure chimique des hydrocarbures présents dans ces mélanges. Nous présentons les résultats obtenus par une régression multivariée parcimonieuse (sparse Partial Least Squares) appliquée aux données GC×GC et 13C RMN. Il s'agit d'une variante de la PLS classique qui permet de réduire le nombre de facteurs tout en privilégiant ceux qui sont les plus corrélés à une propriété d'intérêt donnée. Globalement, cette étude a notamment permis de mieux comprendre l'impact des différents hydrocarbures (n-paraffines, isoparaffines, aromatiques,…) et de leur structure moléculaire (longueur de chaînes, degrés de branchements,…) sur le PT des gazoles et le VI des huiles. La bonne qualité des modèles obtenus par sparse PLS montre par ailleurs la possibilité d'accéder à la qualité des produits lors de l'utilisation d'EHD. Des modèles de prédiction par krigeage ont également été développés. Cette méthode d'interpolation permet de prédire une propriété en un point donné en effectuant une moyenne pondérée des observations au voisinage de ce point. Les modèles de krigeage sont des modèles locaux adaptés aux structures de données complexes. Ce sont des approches probabilistes qui permettent d'estimer les incertitudes de prédiction. Aussi bien dans le cas du PT de la coupe gazole que dans celui du VI de la coupe huile, les résultats montrent une amélioration des performances. Cette approche est tout à fait novatrice dans le domaine des produits pétroliers. Lors de l'utilisation d'unités EHD, elle permet d'accéder au VI des huiles de base plus aisément que via des données chromatographiques ou spectroscopiques, qui sont de plus non accessibles en raffinerie / The rapid decline in light crude oils requires to convert heavy petroleum fractions into more valuable products (naphtha, diesel, lubricants, etc.). In this context, hydrocracking process (HCK) consists on upgrading vaccum gas oil (VGO) into high quality products. The quality of petroleum products is based on some chemical and physical properties that should fulfill prerequisite specifications. The hydrocracking process optimization requires to set up time consuming and costly experiments for developing catalysts and setting operating conditions. High throughput experimentation (HTE) units are then increasingly used at IFPEN. However, these units do not enable to obtain end products. Otherwise, predictive models were developed in order to understand and predict the impact of operating conditions about products quality. However, some complex properties are very difficult to model and require a better understanding. This work is mainly concerned with the understanding of diesel cloud point (CP) and viscosity index (VI) of base oils. Two analytical techniques were used: the two-dimensional gas chromatography (GC×GC) that enables to identify hydrocarbons compounds in petroleum products and the 13C nuclear magnetic resonance (NMR) spectroscopy which provides structural characteristics of these compounds. A sparse multivariate regression (sparse Partial Least Squares) was performed using chromatographic and spectroscopic data. The sparse PLS is derived from classical PLS. It allows to reduce the number of factors by performing a variable selection. The selected factors are the most correlated to the property to model. Globally, this approach enabled to better understand how hydrocarbon compounds (nparaffins, isoparaffins, aromatics,…) and their molecular characteristics (carbon number, degree of branching,…) affect the diesel CP and the VI of base oil. Furthermore, the good performances of developed sparse PLS models show that it is possible to access to the products quality when using HTE units. Kriging models were also developed. Kriging is an interpolation method that predicts the value of a function at a given point by computing a weighted average of the known values of the function in the neighborhood of the point. Kriging models have local aspect which is well adapted to complex data. Its probabilistic approach enables to provide an estimate of predicted value uncertainty. Results show that kriging improves predictive performances for both diesel CP and VI of base oil. This approach is quite innovative in modelling of petroleum products properties. When using HTE units, it allows to estimate the VI of base oil more easily than from chromatographic or spectroscopic data which are not available for the refiners
65

Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.

Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
66

Cartographie des indices de diversité : applications aux communautés de poissons démersaux en Mer Méditerranée / Mapping diversity indices : application to demersal fish communities in the Mediterranean Sea

Suntov, Victoria 16 December 2014 (has links)
La biodiversité marine et terrestre subit de multiples perturbations dues à la pression anthropique ainsi qu'au changement global, qui peuvent affecter la diversité spécifique et le fonctionnement des écosystèmes associés. Dans ce contexte, la cartographie des indices de diversité permet d'analyser les variations spatio-temporelles de la diversité spécifique, et d'identifier des régions à caractère prioritaire dans un cadre de gestion. Le premier objectif de cette thèse est d'évaluer la pertinence des deux approches disponibles pour la cartographie des indices de diversité, ici considérée sans la prise en compte de variables explicatives dans un modèle pour l'interpolation spatiale : (i) l'approche indirecte qui consiste à interpoler individuellement chaque espèce des assemblages échantillonnés, puis à calculer a posteriori l'indice de diversité sur l'ensemble de la zone étudiée, (ii) l'approche directe qui consiste à calculer a priori l'indice au niveau des assemblages, puis à l'interpoler sur l'ensemble de la zone d'étude. Nous montrons que les deux approches présentent des limites importantes pour cartographier rigoureusement les indices de diversité. En effet, d'une part l'approche indirecte est difficile à mettre en œuvre en pratique due à la forte proportion des espèces rares dans le milieu naturel (données zéro inflatées). D'autre part, le non-respect de la propriété mathématique de l'addivitié des indices rend l'approche directe non pertinente pour l'interpolation. Le second objectif de la thèse est d'étudier la variabilité spatio-temporelle de la diversité des assemblages de poissons démersaux en mer Méditerranée, région présentant un grand intérêt scientifique, de par sa forte diversité ainsi que des conditions environnementales et anthropiques contrastées qui s'y exercent. Une approche multi-composante et multi-échelle a été adoptée pour analyser un jeu de données constitué de 19 886 traits de chalut réalisés entre 10 à 800 m de profondeur dans le cadre des campagnes scientifiques annuelles MEDITS effectuées depuis 1994 dans la zone nord Méditerranéenne ainsi qu'en Algérie plus récemment. Nous montrons que la diversité des assemblages de poissons démersaux ne suit pas le gradient longitudinal traditionnellement attendu et/ou observé pour d'autres groupes faunistiques pour aucun des indices et échelles analysés. Néanmoins, nous avons identifié des hotspots de richesse spécifique à Malte, dans la zone Ibérique, et les mers Egée et Ionienne. En revanche, l'équitabilité, les divergences taxonomique, phylogénétique et fonctionnelle n'ont pas présentés de tels hotspots, mais se sont révélées spatialement hétérogènes au sein de chaque région. D'autre part toutes les composantes de la diversité étudiées sont stables au cours des deux dernières décennies. Ce travail apporte des éléments de connaissance essentiels dans cette zone pour la cartographie d'indices de diversité par de futurs modèles incluant des variables explicatives abiotiques et/ou biotiques qui, compte tenu de ce qui a été souligné par le premier volet de la thèse, constituerait une alternative pour l'interpolation spatiale des indices. Toutefois, des efforts restent nécessaires pour identifier et acquérir des données pertinentes à l'échelle de la zone d'étude sur les facteurs biotiques et abiotiques susceptibles d'influencer la distribution de la diversité des assemblages demersaux, par exemple, les interactions entre espèces, l'effort de pêche à partir des données Vessel Monitoring System. Dans l'ensemble, les résultats de cette thèse confirment la nécessité d'utiliser des indices complémentaires lors de l'élaboration des stratégies de suivi de la diversité et la localisation de zones prioritaires de protection, et a permis d'identifier des indices proxies pour suivre les poissons démersaux en Méditerranée. D'autre part, elle met en évidence les limites et le besoin d'avancées méthodologiques pour une cartographie pertinente des indices de diversité. / Increasing human pressures and global environmental change may severely affect species diversity and ecosystems? functioning. In this context, mapping diversity indices allows monitoring spatial and/or temporal variation in diversity, and helps identifying areas for effective conservation planning. The first objective of this thesis is to evaluate the relevance of using the two available diversity indices' mapping approaches without explanatory variables: i) the indirect approach interpolating each individual species distribution over the studied area, then computing a posteriori the diversity index, (ii) the community-level approach interpolating directly a diversity index over the studied area. We show that mapping index by interpolation methods used in the frame of direct or indirect approach suffers from two main limitations. Firstly, diversity indices are not additive making the direct approach irrelevant to use the direct approach. Secondly, many species in natural communities are scarce (i.e. zero inflated data) making difficult to apply the indirect approach. The second objective of this thesis is to study large spatio-temporal diversity of demersal fish assemblages in the Mediterranean Sea, an area of a particular scientific interest, both for its high diversity and direct human pressure in this region. A multi-component and multi-scale approach was applied to analyze a dataset of 19,886 hauls from 10 to 800 m depth performed annually during the last two decades by standardized scientific bottom trawl field surveys across the Mediterranean Sea, within the MEDITS program. We show that the diversity of demersal fish assemblages sampled by trawl do not follow the observed or expected decreasing longitudinal/latitudinal diversity gradients, for any of the indices and spatial scales analysed. However, we identified hotspots of species richness at both local and regional scales in the Iberian region, Malta, the Eastern Ionian and Aegean seas. In contrast, evenness as well as taxonomic, phylogenetic and functional divergences did not show regional hotspots. All studied diversity components remained stable over the last two decades. Finally, our analysis represents an essential step towards future studies focused on the drivers shaping demersal fish communities? diversity in the Mediterranean Sea using models that will include biotic and/or abiotic explanatory variables to map diversity indices. However, it will require identification and availability of accurate data of these variables at the scale of the Mediterranean Sea (e.g. species interactions, fishing effort from Vessel Monitoring System (VMS) data). Overall, our results highlight the need of using complementary diversity indices through different spatial scales when developing monitoring strategies and defining protected areas. They also identify suitable proxies to monitor demersal fish communities in the Mediterranean Sea. Moreover, this work underlines the main limits of approaches for mapping diversity indices, and the need of further developments in this field.
67

Estimation de paramètres et planification d’expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs / Parameter estimation and design of experiments adapted to kinetics problems - Application for depollution of exhaust smoke from the output of engines

Canaud, Matthieu 14 September 2011 (has links)
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l’entropie maximale. / Physico-chemical models designed to represent experimental reality may prove to be inadequate. This is the case of nitrogen oxide trap, used as an application support of our thesis, which is a catalyst system treating the emissions of the diesel engine. The outputs are the curves of concentrations of pollutants, which are functional data, depending on scalar initial concentrations.The initial objective of this thesis is to propose experiental design that are meaningful to the user. However, the experimental design relying on models, most of the work has led us to propose a statistical representation taking into account the expert knowledge, and allows to build this plan.Three lines of research were explored. We first considered a non-functional modeling with the use of kriging theory. Then, we took into account the functional dimension of the responses, with the application and extension of varying coefficent models. Finally, starting again from the original model, we developped a model depending on the kinetic parameters of the inputs (scalar) using a nonparametric representation.To compare the methods, it was necessary to conduct an experimental campaign, and we propose an exploratory design approach, based on maximum entropy.
68

Métamodélisation et optimisation de dispositifs photoniques / Metamodeling and optimization of photonics devices

Durantin, Cédric 28 May 2018 (has links)
La simulation numérique est couramment utilisée pour étudier le comportement d’un composant et optimiser sa conception. Pour autant, chaque calcul est souvent coûteux en termes de temps et l’optimisation nécessite de résoudre un grand nombre de fois le modèle numérique pour différentes configurations du composant. Une solution actuelle pour réduire le temps de calcul consiste à remplacer la simulation coûteuse par un métamodèle. Des stratégies sont ensuite mises en place pour réaliser l’optimisation du composant à partir du métamodèle. Dans le cadre de cette thèse, trois dispositifs représentatifs des applications pouvant être traitées au sein du CEA LETI sont identifiés. L’étude de ces cas permet d’établir deux problématiques à résoudre. La première concerne la métamodélisation multi-fidélité, qui consiste à construire un métamodèle à partir de deux simulations du même composant ayant une précision différente. Les simulations sont obtenues à partir de différentes approximations du phénomène physique et aboutissent à un modèle appelé haute-fidélité (précis et coûteux) et un modèle basse fidélité (grossier et rapide à évaluer). Le travail sur cette méthode pour le cas de la cellule photoacoustique a amené au développement d’un nouveau métamodèle multifidélité basé sur les fonctions à base radiale. La deuxième problématique concerne la prise en compte des incertitudes de fabrication dans la conception de dispositifs photoniques. L’optimisation des performances de composants en tenant compte des écarts observés entre la géométrie désirée et la géométrie obtenue en fabrication a nécessité le développement d’une méthode spécifique pour le cas du coupleur adiabatique. / Numerical simulation is widely employed in engineering to study the behavior of a device and optimize its design. Nevertheless, each computation is often time consuming and, during an optimization sequence, the simulation code is evaluated a large number of times. An interesting way to reduce the computational burden is to build a metamodel (or surrogate model) of the simulation code. Adaptive strategies are then set up for the optimization of the component using the metamodel prediction. In the context of this thesis, three representative devices are identified for applications that can be encountered within the CEA LETI optics and photonics department. The study of these cases resulted in two problems to be treated. The first one concerns multifidelity metamodeling, which consists of constructing a metamodel from two simulations of the same component that can be hierarchically ranked in accuracy. The simulations are obtained from different approximations of the physical phenomenon. The work on this method for the case of the photoacoustic cell has generated the development of a new multifidelity surrogate model based on radial basis function. The second problem relate to the consideration of manufacturing uncertainties in the design of photonic devices. Taking into account the differences observed between the desired geometry and the geometry obtained in manufacturing for the optimization of the component efficiency requires the development of a particular method for the case of the adiabatic coupler. The entire work of this thesis is capitalized in a software toolbox.
69

Characterization of environmental inequalities due to Polyaromatic Hydrocarbons in France : developing environmental data processing methods to spatialize exposure indicators for PAH substances / Caractérisation des inégalités environnementales liées aux Hydrocarbure Aromatique Polycyclique en France : développement de méthodes de traitement des données environnementales pour la spatialisation des indicateurs d'exposition aux substances HAP

Ioannidou, Despoina 25 June 2018 (has links)
La réduction des inégalités d’exposition environnementale constitue un axe majeur en santé publique en France comme en témoignent les priorités des différents Plan Nationaux Santé Environnement (PNSE). L’objectif de cette thèse est de développer une approche intégrée pour la caractérisation des inégalités environnementales et l’évaluation de l’exposition spatialisée de la population aux HAP en France.Les données produites dans le cadre des réseaux de surveillance de la qualités des milieux environnementaux sont le reflet de la contamination réelle des milieux et de l’exposition globale des populations. Toutefois, elles ne présentent généralement pas une représentativité spatiale suffisante pour caractériser finement les expositions environnementales, ces réseaux n’ayant pas été initialement conçus dans cet objectif. Des méthodes statistiques sont développées pour traiter les bases de données d’entrée (concentrations environnementales dans l’eau, l’air et le sol) et les rendre pertinentes vis à vis des objectifs définis de caractérisation de l’exposition. Un modèle multimédia d’exposition, interfacé avec un Système d’Information Géographique pour intégrer les variables environnementales, est développé pour estimer les doses d’exposition liées à l’ingestion d’aliments, d’eau de consommation, de sol et à l’inhalation de contaminants atmosphériques. La méthodologie a été appliquée pour trois Hydrocarbures Aromatiques Polycycliques (benzo[a]pyrène, benzo[ghi]pérylène et indéno[1,2,3-cd]pyrène) sur l’ensemble du territoire français. Les résultats permettent de cartographier des indicateurs d’exposition, d’identifier les zones de surexposition et de caractériser les déterminants environnementaux. Dans une logique de caractérisation de l’exposition, la spatialisation des données issues des mesures environnementales pose un certain nombre de questions méthodologiques qui confèrent aux cartes réalisées de nombreuses incertitudes et limites relatives à l’échantillonnage et aux représentativités spatiales et temporelles des données. Celles-ci peuvent être réduites par l’acquisition de données supplémentaires et par la construction de variables prédictives des phénomènes spatiaux et temporels considérés.Les outils de traitement statistique de données développés dans le cadre de ces travaux seront intégrés dans la plateforme PLAINE pour être déclinés sur d’autres polluants en vue de prioriser les mesures de gestion à mettre en œuvre. / Reducing environmental exposure inequalities has become a major focus of public health efforts in France, as evidenced by the French action plans for health and the environment. The aim of this thesis is to develop an integrated approach to characterize environmental inequalities and evaluate the spatialized exposure to PAH in France.The data produced as part of the monitoring quality networks of environmental media reflect the actual contamination of the environment and the overall exposure of the populations. However they do not always provide an adequate spatial resolution to characterize environmental exposures as they are usually not assembled for this specific purpose. Statistical methods are employed to process input databases (environmental concentrations in water, air and soil) in the objective of characterizing the exposure. A multimedia model interfaced with a GIS, allows the integration of environmental variables in order to yield exposure doses related to ingestion of food, water and soil as well as atmospheric contaminants' inhalation.The methodology was applied to three Polycyclic Aromatic Hydrocarbon substances, (benzo[a]pyrene, benzo[ghi]perylene and indeno[1,2,3-cd]pyrene), in France. The results obtained, allowed to map exposure indicators and to identify areas of overexposure and characterize environmental determinants. In the context of exposure characterization, the direct spatialization of available data from environmental measurement datasets poses a certain number of methodological questions which lead to uncertainties related to the sampling and the spatial and temporal representativeness of data. These could be reduced by acquiring additional data or by constructing predictive variables for the spatial and temporal phenomena considered.Data processing algorithms and calculation of exposure carried out in this work, will be integrated in the French coordinated integrated environment and health platform-PLAINE in order to be applied on other pollutants and prioritize preventative actions.
70

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Page generated in 0.1064 seconds