• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le krigeage : revue de la théorie et application à l'interpolation spatiale de données de précipitations

Baillargeon, Sophie. January 1900 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2005. / Titre de l'écran-titre (visionné le 28 septembre 2005). Bibliogr.
2

Détermination d'un géoïde gravimétrique local par Krigeage /

Gosselin, Serge. January 1997 (has links)
Thèse (M.Sc.)--Université Laval, 1997. / Bibliogr.: f. 85-88. Publié aussi en version électronique.
3

Le krigeage : revue de la théorie et application à l'interpolation spatiale de données de précipitations

Baillargeon, Sophie 11 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2004-2005 / Le krigeage est une méthode stochastique d'interpolation spatiale qui prévoit la valeur d'un phénomène naturel en des sites non échantillonnés par une combinaison linéaire sans biais et à variance minimale des observations du phénomène en des sites voisins. Ce mémoire se consacre à l'étude de cette méthode. Elle y est d'abord comparée à d'autres méthodes d'interpolation spatiale et ses fondements mathématiques sont examinés. La résolution des équations du krigeage est donc détaillée et commentée. L'analyse variographique, étape préalable au krigeage, est aussi présentée. En plus d'avoir pour objectif l'approfondissement de la théorie du krigeage, ce mémoire vise à expliciter son utilisation. Ainsi, une méthodologie de mise en oeuvre du krigeage est proposée et illustrée. Les performances du krigeage sont ensuite comparées à celle d'autres méthodes, et ce, pour résoudre une problématique d'interpolation spatiale multivariable de données de précipitations dans un cadre de modélisation hydrologique.
4

Contributions à la modélisation et à l'inférence des fonctions aléatoires non-stationnaires de second ordre / Contributions to modelling and inference of second order non-stationary random functions

Fouedjio Kameni, Migraine Francky 15 December 2014 (has links)
Les fonctions aléatoires stationnaires ont été utilisées avec succès dans les applications géostatistiques depuis plusieurs décennies. La structure de dépendance spatiale sous-jacente de la fonction aléatoire est alors représentée par un variogramme ou une covariance stationnaire. Cependant, dans certaines situations, il y a très peu de raisons de s'attendre à une structure de dépendance spatiale stationnaire sur l'ensemble du domaine d'intérêt. Dans cette thèse, deux approches de modélisation non-stationnaire de fonctions aléatoires sont considérées: déformation d'espace et convolution stochastique. Pour chacune d'elle, nous développons une méthodologie statistique d'estimation de la structure de dépendance spatiale non-stationnaire, dans le contexte d'une réalisation unique. Par ailleurs, nous montrons également comment dans ce cadre non-stationnaire, les prédictions spatiales et les simulations conditionnelles peuvent être menées. Les méthodes d'inférence développées permettent de capturer des structures de dépendance variables tout en garantissant la cohérence globale du modèle final. L'évaluation de leur performance selon plusieurs critères, sur des données synthétiques et réelles montre qu'elles donnent de meilleurs résultats de prédiction qu'une méthode stationnaire. Au delà de la prédiction, elles peuvent également servir comme outil pour une analyse exploratoire de la non-stationnarité. / Stationary Random Functions have been sucessfully applied in geostatistical applications for decades. The underlying spatial dependence structure of the Random Function is represented by a stationary variogram or covariance. However, in some instances, there is little reason to expect the spatial dependence structure to be stationary over the whole region of interest. In this manuscript, two non-stationary modelling approaches for Random Functions are considered: space deformation and stochastic convolution. For each of them, we develop a statistical methodology for estimating the non-stationary spatial dependence structure, in the context of a single realization. Moreover, we also show how spatial predictions and conditional simulations can be carried out in this non-stationary framework. The developed inference methods allow to capture varying spatial structures while guaranteeing the global consistency of the final model. The assessment of their performance on both synthetic and real datasets show that they outperform stationary method, according to several criteria. Beyond the prediction, they can also serve as a tool for exploratory analysis of the non-stationarity.
5

Interpolation de niveaux d'exposition aux émissions radioélectriques in situ à l'aide de méthodes géostatistiques

Ould Isselmou, Yahya 30 November 2007 (has links) (PDF)
Les réglementations et normes radioélectriques précisent différentes valeurs limites d'exposition radioélectrique à ne pas dépasser. Les niveaux d'expositions constatés autour des antennes de radio et de télécommunications sont très en dessous des limites d'exposition recommandées par la commission de protection contre les rayonnements non-ionisants. Aujourd'hui, les personnes se trouvant à proximité des émetteurs radio ne cherchent plus simplement à vérifier la conformité aux normes. La demande porte sur l'évaluation du niveau d'exposition auquel ils sont soumis et la probabilité de dépassement d'un seuil donné. Le cadre probabiliste sur lequel sont fondées les méthodes géostatistiques offre la possibilité de répondre à cette question. Dans cette thèse nous présentons une application des méthodes géostatistiques linéaires ; en particulier le krigeage, pour l'estimation des niveaux d'exposition radioélectriques à partir d'un jeu de données simulées. Une application du krigeage avec dérive externe sur des mesures réelles est ensuite présentée. Dans ces applications, le modèle de variogramme de Cauchy montre une bonne adéquation avec la variabilité de la densité de la puissance. Un troisième exemple d'application a pour objectif d'évaluer la probabilité avec laquelle les niveaux d'exposition peuvent dépasser un seuil déterminé. Nous utilisons deux méthodes de la géostatistique non-linéaire basées sur un modèle "multigaussien" et comparons les résultats des calculs de probabilité de dépassement de seuil par ces deux méthodes sur un ensemble de mesures d'exposition prises dans le centre de la ville de Paris.
6

Caractérisation, estimation et valorisation de gisements d'argiles kaoliniques du bassin des Charentes

Koneshloo, Mohammad 16 November 2007 (has links) (PDF)
Des argiles kaoliniques sont exploitées depuis une centaine d'années, dans la partie occidentale du bassin des Charentes. Leurs dépôts sont liés aux formations sédimentaires d'un réseau paléo-deltaïque. La genèse des gisements de kaolin du Bassin des Charentes obéit à des règles géologiques simples mais leur géométrie détaillée présente une grande complexité, renforcée par le fait qu'on doit distinguer des argiles de qualités très différentes.<br />Les gisements récemment mis en exploitation, sont relativement plus riches en alumine que ceux déjà épuisés. Ces nouveaux gisements, plus profonds que les anciens, ont subi des phénomènes postsédimentaires plus intenses. Dans cette étude on compare des données chimiques des différents gisements de Bassin des Charentes. La formation des argiles hyperalumineuses est particulièrement étudiée. On essaie d'améliorer la connaissance des gisements en utilisant les analyses statistiques. Les données disponibles sont les résultats d'analyses chimiques des échantillons carottés des argiles kaoliniques.<br />Des méthodes géostatistiques sont proposées pour l'étude de ces gisements et sont appliquées à certains d'entre eux. Les problèmes de l'utilisation des outils de la géostatistique pour ce genre de dépôt sont abordés et on essaie de présenter des démarches adaptées.<br />Ces outils nous permettent de mettre en évidence l'importance d'une connaissance de la variabilité spatiale des éléments chimiques dans ce gisement pour mieux gérer les opérations d'exploration, d'extraction et de classification des dépôts de kaolin.<br />Des simulations géostatistiques permettent de visualiser la variabilité spatiale des différentes catégories d'argile. Elles ont été mises en oeuvre dans le cadre de la méthode des plurigaussiennes seuillées. Deux cas ont été traités : simulation de faciès argileux fondés principalement sur des critères visuels, et simulation de classes d'argile définies à partir de leur teneur en Al2O3.
7

Spatial prediction of soil properties: the Bayesian Maximum Entropy approach./ Prédiction spatiale de propriétés pédologiques : l'approche du Maximum d'Entropie Bayésien.

D'Or, Dimitri 13 May 2003 (has links)
Soil properties play important roles in a lot of environmental issues like diffuse pollution, erosion hazards or precision agriculture. With the developments of soil process models and geographical information systems, the need for accurate knowledge about soil properties becomes more acute. However, while the sources of information become each year more numerous and diversified, they rarely provide us with data at the same time having the required level of spatial and attribute accuracy. An important challenge thus consists in combining those data sources at best so as to meet the high accuracy requirements. The Bayesian Maximum Entropy (BME) approach appears as a potential candidate for achieving this task: it is especially designed for managing simultaneously data of various nature and quality ("hard" and "soft" data, continuous or categorical). It relies on a two-steps procedure involving an objective way for obtaining a prior distribution in accordance with the general knowledge at hand (the ME part), and a Bayesian conditionalization step for updating this prior probability distribution function (pdf) with respect to the specific data collected on the study site. At each prediction location, an entire pdf is obtained, allowing subsequently the easy computation of elaborate statistics chosen for their adequacy with the objectives of the study. In this thesis, the theory of BME is explained in a simplified way using standard probabilistic notations. The recent developments towards categorical variables are incorporated and an attempt is made to formulate a unified framework for both categorical and continuous variables, thus emphasizing the generality and flexibility of the BME approach. The potential of the method for predicting continuous variables is then illustrated by a series of studies dealing with the soil texture fractions (sand, silt and clay). For the categorical variables, a case study focusing on the prediction of the status of the water table is presented. The use of multiple and sometimes contradictory data sources is also analyzed. Throughout the document, BME is compared to classic geostatistical techniques like simple, ordinary or indicator kriging. Thorough discussions point out the inconsistencies of those methods and explain how BME is solving the problems. Rather than being but another geostatistical technique, BME has to be considered as a knowledge processing approach. With BME, practitioners will find a valuable tool for analyzing their spatio-temporal data sets and for providing the stake-holders with accurate information about the environmental issues to which they are confronted. Read one of the articles extracted from Chapter V at : D'Or D., Bogaert P. and Christakos, G. (2001). Application of the BME Approach to Soil Texture Mapping. Stochastic Environmental Research and Risk Assessment 15(1): 87-100 ©Springer-2001. http://springerlink.metapress.com/app/home/contribution.asp?wasp=cbttlcpaeg1rqmdb4xv2&referrer=parent&backto=issue,6,6;journal,13,29;linkingpublicationresults,1,1
8

Inversion d'un système par krigeage : application à la synthèse des catalyseurs à haut débit

Bettinger, Régis 22 October 2009 (has links) (PDF)
Ce travail concerne la modélisation du processus de synthèse (construction) de supports de catalyseurs obtenus par réaction silice-alumine. La synthèse est caractérisée par 5 variables d'entrée et 2 variables de sortie (la surface spécifique et le volume mesoporeux du support de catalyseur). Chaque combinaison des valeurs de sortie ayant une application potentielle, on voudrait savoir en synthétiser le plus grand nombre, c'est-a-dire connaitre les variables d'entrée permettant de construire un catalyseur ayant une surface et un volume donnes quelconques. Les limites atteignables des deux sorties du système sont inconnues. Ne disposant pas de suffisamment d'essais pour pouvoir espérer construire un modèle fiable sur l'ensemble du domaine de variation des variables d'entrée, nous choisissons une approche par plans d'expérience séquentiels avec modélisation par krigeage, permettant d'éviter une trop grande dispersion des variables d'entrée tout en assurant une exploration du domaine accessible pour les variables de sortie. Les essais sont choisis séquentiellement en se servant de l'information apportée par les essais précédents et traitée par le modèle de krigeage. Cette façon de procéder est a priori plus efficace que celle consistant a utiliser un plan d'expériences fixe au départ et comprenant la totalité des essais disponibles. Des critères d'ajout séquentiel de points d'expérimentation (définissant les valeurs des variables d'entrée) sont proposes, qui favorisent une forte dispersion des sorties correspondantes et prennent en compte les incertitudes associées aux prédictions par krigeage. Enfin, les critères retenus, l'un à base de distance et l'autre à base d'entropie, sont testes sur des données simulées afin de vérifier la bonne répartition finale des valeurs des réponses. Des rappels sur la modélisation par processus gaussien, la régression/interpolation par krigeage et ses liens avec les méthodes de type splines et SVM, ainsi que la planification d'expériences sont présentes en essayant de concilier rigueur et clarté.
9

Optimisation de structures aéronautiques : une nouvelle méthode à fidélité adaptative / optimization of aeronautical structures : a new adaptive fidelity method

Soilahoudine, Moindzé 28 November 2016 (has links)
Les méthodes d'optimisation à base de métamodèles avec enrichissement adaptatif (type Efficient Global Optimization) peuvent, malgré leurs atouts, être rédhibitoires en temps de calculs lorsqu'elles sont appliquées à des modèles numériques de grande taille avec plusieurs minimums locaux. Elles nécessitent la résolution d'un modèle complet à chaque simulation, ce qui peut conduire à des études irréalisables ou alors dans des durées incompatibles avec les échelles de temps typiques du processus de conception d'un produit. Cette thèse s'inscrit dans la thématique de l'optimisation de simulateurs numériquement couteux par l'utilisation des modèles simplifiés. Ces modèles simplifiés peuvent être notamment de deux types : des métamodèles ou des modèles d'ordre réduit. Nous proposons dans cette thèse une nouvelle méthodologie d'optimisation globale de systèmes mécaniques en couplant les méthodes d'optimisation à base de métamodèles adaptatifs avec les méthodes de réduction d'ordre. Les méthodes d'optimisation à base de métamodèles visent à réduire le nombre d'évaluations de la fonction objectif tandis que les méthodes de réduction d'ordre visent à diminuer la taille des modèles permettant ainsi une réduction de leur temps d'exécution. L'objectif de la méthodologie développée dans cette thèse est alors de réduire le nombre d'évaluations de la fonction objectif tout en diminuant également le temps d'exécution des modèles. L'idée de l'approche développée est de construire le métamodèle de la fonction objectif de manière adaptative. Cette construction fusionne des modèles complets et des modèles d'ordre réduit et adapte ainsi la fidélité aux besoins en précision de l'itération courante de l'optimisation. Les performances des algorithmes développés dans cette thèse ont été illustrées sur deux types d'applications : i. un problème d'identification des quatre propriétés orthotropes d'un composite stratifié à partir de mesures de champs de déplacement d'une plaque trouée en traction. ii. un problème de maximisation de la rigidité d'une plaque composite stratifiée. Les résultats ont permis de montrer que notre méthodologie permet d'obtenir des gains considérables, en temps de calcul, par rapport à un algorithme de type EGO classique. / The surrogate based optimization method with adaptive enrichment (Efficient Global Optimization type approach) may, in spite of its strengths, be prohibitive in terms of computational cost when applied to large scale problems with several local minima. They require the resolution of a full numerical model for each simulation, which can lead to intractable studies or to simulation times incompatible with the times allotted for the design of a product. This PhD thesis falls within the scope of optimizing expensive simulator codes by using substitution models of the simulator. These substitutions models can be of two types: a metamodel or a reduced order model. We have proposed here a new methodology for global optimization of mechanical systems by coupling adaptive surrogate based optimization methods with the reduced order modeling methods. The surrogate based optimization methods aim to reduce the number of objective function evaluations while the reduced order model methods aim to reduce the dimensionality of a model and thus its computational cost. The objective of the methodology proposed in this thesis is thus to reduce the number of the objective function evaluations while at the same time significantly reducing the computational expense to the resolutions of the full mechanical model. The basic idea of the proposed approach resides in the adaptive construction the metamodel of the objective function. This construction fuses full and reduced order models and thus adapts the model fidelity to the accuracy requirements of the optimization at the current iteration. The efficiency of our proposed algorithms was illustrated on two types of applications: i. a problem of identification of orthotropic elastic constants from full field displacement measurements based on a tensile test on a plate with a hole ii. a problem of stiffness maximization of laminated plates. The results have shown that our methodology provides a significant speed-up in terms of computational cost, compared to the traditional EGO algorithm.
10

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.

Page generated in 0.0218 seconds