• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 15
  • 2
  • 1
  • Tagged with
  • 44
  • 18
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Une devise canadienne ou plusieurs? : la question de l'optimalité de la zone monétaire canadienne à travers l'étude de chocs exogènes dans un cadre VECM

Berkouch, Domar-Anas 20 April 2018 (has links)
L'objectif de cette étude est de savoir si la fédération des provinces du Canada forme aujourd’hui une zone monétaire optimale. Les travaux précédents ont suggéré que l’espace monétaire canadien soit divisé en deux espaces, l’un de l’Est et l’autre de l’Ouest. Notre méthodologie, qui intègre des données des Etats-Unis et du cours du pétrole WTI, fait ressortir l’existence de deux zones économiques pouvant se doter de leur propre devise. L’analyse par VECM montre l’existence d’une relation de long terme entre les provinces canadiennes, les États-Unis et le cours du pétrole. Une interprétation possible de nos résultats est que ceux-ci suggèrent que le Canada devrait avoir deux monnaies distinctes une pour la zone de l’Ouest (Alberta/Colombie-Britannique), une pour la zone de l’Est (Québec/Ontario/Nouveau-Brunswick). / The aim of this study is to assess whether the federation of the provinces of Canada today form an optimal currency area. Previous work has sometimes suggested that the Canadian monetary zone be divided into two spaces, one in the East and the other in the West. Our methodology, which incorporate data from the United States and WTI oil prices, highlights the existence of two economic areas that could develop their own currency. VECM analysis shows the existence of a long-term relationship between the Canadian provinces, the United States and oil prices. The results can be interpreted as suggesting that Canada should have two separate currencies for an area of the West (Alberta / British Columbia), one for the area (Quebec/Ontario/New-Brunswick).
12

Modélisation numérique de modèles thermomécaniques polyphasiques, puits-milieux poreux

Lizaik, Layal 18 December 2008 (has links) (PDF)
Dans le cadre de monitoring des puits et des réservoirs pétroliers, les études de thermométries se sont développées. Suite à l'émergence de nouvelles technologies d'acquisition avec l'apparition des fibres optiques depuis une vingtaine d'années, il est maintenant possible d'obtenir un profil de température continu à la fois sur la hauteur du puits et dans le temps. Dans ce travail, on étudie d'un point de vue thermomécanique deux modèles d'écoulements afin d'interpréter ces mesures de température. <br /><br />On couple d'abord un modèle réservoir axisymétrique avec un modèle puits pseudo 1D pour l'écoulement d'un fluide monophasique. La modélisation du réservoir intègre une équation d'énergie non-standard qui prend en compte les phénomènes de décompression du fluide (Joule-Thomson) ainsi que ceux liés à la friction dans la formation (dissipation visqueuse). Le puits est décrit par un modèle couplant classiquement les équations de Navier-Stokes compressibles avec un bilan d'énergie. Des conditions de transmission adéquates sont imposées à l'interface entre les deux domaines et ensuite dualisées par des multiplicateurs de Lagrange. On obtient ainsi une formulation variationnelle mixte non standard pour le problème couplé. Les flux sont discrétisés par des éléments finis de Raviart-Thomas. Enfin, on montre que les problèmes couplés continu et discret sont bien posés.<br /><br />On développe ensuite un modèle réservoir multi-phasique (huile, gaz et eau) et multi-composant. Compte tenu de la complexité du problème, on a choisi d'étendre un simulateur non-thermique existant GPRS (General Purpose Reservoir Simulator) en lui ajoutant une équation d'énergie adéquate et la thermodynamique correspondante. L'écoulement est régi par les équations de conservation de la masse pour chaque composant et une équation de conservation d'énergie exhaustive, couplées avec la loi de Darcy géenéralisée appliquée à chacune des phases. L'ensemble des propriétés thermodynamiques des fluides et les équilibres des phases sont calculés par l'équation d'état de Peng-Robinson. La discétisation en espace est faite à l'aide des volumes finis et le système non-linéaire obtenu est résolu par la méthode de Newton-Raphson.<br /> <br />Des tests numériques avec des données réelles validant les codes développés sont présentés.
13

Optimisation de forme d'une pompe générique de fond de puits

Baillet, Séverine 24 September 2007 (has links) (PDF)
L'objectif de l'optimisation de forme d'une pompe générique de fond de puits est de maximiser le gain de pression par unité de longueur de la pompe, en redessinant ses aubes et son moyeu, tout en respectant un certain nombre de contraintes géométriques. On génère la représentation de la géométrie 3D de la pompe grâce à des B-splines paramétriques cubiques 2D. Pour l'optimisation on utilise une méthode de gradient classique. On emploie Fluent, un logiciel de modélisation de mécanique des fluides "boîte noire" et on procède par conséquent à un calcul de gradient incomplet de la fonction coût. Pour cela on écrit l'expression analytique exacte du gradient à l'aide d'une formule d'intégration sur les bords variables puis on ne prend en compte que les termes que l'on peut calculer ou déterminer numériquement. Les termes généralement écartés sont les dérivées des solutions de l'équation d'état par rapport au déplacement d'un point de contrôle. On a d'abord développé un code d'optimisation pour le moyeu de la pompe seul, sans aubages, et on présente les résultats obtenus. On utilise une méthode d'optimisation sans contrainte et on prend en compte par réduction du problème des contraintes d'égalité linéaires. On constate qu'après une première phase de décroissance, la fonction coût ne converge pas vers un minimum. On propose alors quelques tests de façon à analyser ce résultat. Parmi ceux-là, l'emploi des différences finies confirme que le gradient incomplet n'est pas systématiquement une direction de descente. Enfin quelques pistes sont évoquées pour l'expliquer.
14

Energy and money in new frameworks for macro-dynamics / L'énergie et l'argent d'un nouveau cadre de modélisation macroéconomique

Mc Isaac, Florent 14 December 2016 (has links)
Depuis la stagflation observée consécutivement à la forte hausse du prix du pétrole en 1973 et 1979, les chocs pétroliers sont considérés comme l’une des sources de fluctuations potentiellement les plus importantes aux États-Unis comme dans de nombreux pays industrialisés. De nombreux articles ont étudié le rôle des chocs pétroliers dans la fluctuation des principales variables macroéconomiques à savoir, la croissance, le chômage, l’inflation et les salaires. Cependant, ces travaux n’ont pas encore permis d’aboutir à un consensus. Le débat s’est même intensifié au cours de cette dernière décennie, en raison d’une absence de réaction forte de l’économie réelle pendant la période d’augmentation du prix du pétrole entre 2002 et 2007. En effet, la récession qu’aurait dû engendrer une telle hausse des prix ne fut observée qu’au moment de la crise des subprimes en 2008. Plusieurs hypothèses furent avancées pour expliquer la différence entre les crises des années 1970 et 2000. Blanchard & Gali (2009) et Blanchard & Riggi (2013) évoquent, par exemple, la réduction de la quantité de pétrole utilisée dans la production, la plus grande flexibilité des salaires réels et une meilleure crédibilité de la politique monétaire. Hamilton (2009) et Kilian (2008) suggèrent quant à eux de l’expliquer par l’origine différente des deux chocs pétroliers : un choc d’offre pendant les années 70 et un choc de demande pendant les années 2000. L’objectif original de la thèse était de réexaminer l’impact des chocs pétroliers sur l’économie réelle par le canal de la dette. [...]Le développement de ces travaux entamés dans la thèse pourra aboutir à un cadre alternatif de modélisation décisif pour l’intelligence de la macroéconomie. Il devrait permettre une meilleure compréhension de l’évaluation des relations réciproques entre la sphère financière, la réalité des cycles macroéconomiques réels, l’énergie et le climat dans ce qui est sans aucun doute l’enjeu de notre génération : la transition écologique. / Ever since the stagflation that followed the oil price run-ups of 1973 and 1979, oil price shocks have been considered one of the most influential sources of economic fluctuation in the United States and other developed countries. A large body of literature has analyzed oil price shocks as sources of variation for leading macroeconomic variables such as GDP growth, unemployment rate, inflation, and wages. However, scholars have yet to reach a consensus as to the true impact of oil shocks on the macroeconomic environment. Furthermore, the last decade has seen the debate intensify as the results of the relatively (in comparison with the 1970s) muted reaction of the real economy during the 2002-6 oil price run-up. Indeed, the recessionary effect was only observed during the subprime mortgage crisis of 2008-9. Numerous hypotheses have been put forward to explain the difference in impact during the 1970s versus the 2000s. For instance, Blanchard & Gali (2009) and Blanchard & Riggi (2013) evoked the reduction of the quantity of oil used of a unit of production, more flexible real wages, and a better credibility of the monetary policy. Hamilton (2009) and Kilian (2008) pinpointed a difference in the nature of the shock: whereas the oil shocks of the 1970s were driven by supply, that of the 2000s was led by demand. The original aim of this thesis was to reevaluate the impact of the oil shock in the 2000s through the debt channel. First, based on the work of Banchard & Gali, we proposed a new dynamic stochastic general equilibrium model (DSGE), which includes oil as an input of production as well as a consumption good. By relaxing some of the hypotheses of Blanchard & Gali, especially the decoupling of the output elasticity of oil with the cost-share in the production, our work demonstrated that oil is still a fundamental variable of the GDP in the United States. Furthermore, we found that energy efficiency is a key factor that explains the muted macroeconomic impact of an increase in oil prices. A third line of inquiry that may explain the difference between the shocks of the 1970s and the 2000s considers the extra costs implied by a higher price of oil that were absorbed by private debt (which was itself exacerbated by low interest rates set by the Federal Reserve in the 2000s). However, we found that DSGE modeling is unable to replicate the macroeconomic environment that led to the subprime mortgage crisis. In light of these considerations, I reoriented my thesis along the lines of a new angle of research that seeks to represent economic mechanisms differently. Under this new frame-work, private debt is at the core of macroeconomic analysis. It provides an alternative view of the financial crisis that occurred in the 2000s.[...]The conclusions of this thesis demonstrate great potential for providing foundations for new perspectives in macroeconomic modeling. The papers included in the thesis allow, in particular, for a better understanding of situations that most macroeconomic models are not able to cope with, including the over indebtedness crisis. As a result, the framework introduced here may provide an alternative and improved perspective for public policy. Further development of the research presented in this thesis may lead to the improvement of other frameworks in the field of macroeconomics. This would allow for a better understanding of complex interactions between the financial sphere, real business cycles, energy, and climate in what is certainly the biggest challenge of our generation : the ecological shift.
15

Procédés de traitement biologiques in situ : la modélisation numérique comme outil d'aide à la décision / Biological treatment processes in situ : Numerical modelling as decision support tool

Verardo, Elicia 22 March 2016 (has links)
La bio-remédiation in situ est une technique de réhabilitation couramment utilisée pour le traitement des sols et des nappes contaminés, notamment par les hydrocarbures pétroliers. Si démontrer la pertinence de ce type de traitement constitue un préalable incontournable pour chacun des sites où il est mis en œuvre, l’efficacité du traitement dépend de ses conditions de mise en œuvre dans le contexte spécifique d’un site. Le suivi et le contrôle des différents processus qui gouvernent les phénomènes de biodégradation est complexe, et leur optimisation constitue un élément clé de la réussite du traitement tant au plan technique qu’économique. La démarche générale du travail de thèse porte sur le développement d’une méthodologie permettant d’employer la modélisation dans une démarche de gestion (au sens des textes de 2007) d’un site contaminé par des hydrocarbures pétroliers traité par biodégradation in situ. L’originalité du travail de thèse porte sur l’utilisation de la modélisation comme outil de compréhension des mécanismes et d’aide à la décision à chaque étape du traitement : (i) Dimensionnement de l’installation : définir la meilleure option envisageable, (ii) suivi de l’efficacité du traitement : optimiser le procédé et (iii) prédiction et justification de l’arrêt du traitement : sécuriser en termes de garantie de résultat. Les données d’un site d’étude servent de support dans la définition de l’approche méthodologique de modélisation. A chaque étape d’un projet de bio-remédiation in situ peut être associée une étape de modélisation qui fera appel à des moyens plus ou moins sophistiqués avec des exigences de précision variables. Le premier outil développé concerne l’estimation des incertitudes prédictives dans les modèles mis en œuvre. Cet aspect est fondamental, dès lors que l’on souhaite utiliser la modélisation dans un processus d’aide à la décision. Les processus de bio-remédiation in situ impliquent des relations complexes et incertaines entre la biomasse, les contaminants et les mesures de contrôle appropriées. Prévoir la performance du traitement (en termes de réduction du flux et/ou de la masse) constitue un défi en raison des incertitudes liées aux propriétés du milieu, de la source et aux incertitudes liées aux mécanismes de bio-remédiation. L’étude de la contribution des incertitudes paramétriques dans la prédiction de la performance du traitement est réalisée avec la méthode du « Null Space Monte Carlo » (NSMC) implémentée dans l’outil PEST. Le second outil utilisé concerne l’optimisation du design et/ou du monitoring d’un procédé de bio-traitement in situ. Dans ce contexte, deux objectifs peuvent être envisagés à savoir la réduction du flux de contaminants d’une part, et l’élimination de la masse à la zone source d’autre part. L’outil utilisé est un algorithme d’optimisation mathématique dénommé “Particle Swarm Optimisation” (PSO). Le choix de la fonction objectif à optimiser est particulièrement important et s’avère lié au comportement spécifique hydrogéochimique du site considéré. Cette étude montre que les outils NSMC et PSO s’avèrent appropriés dans l'utilisation de modèles de transport réactif dans la gestion environnementale. Les temps de calcul de ces modèles hautement paramétrés et non linéaires limitent encore l'utilisation de la modélisation comme outil d’aide à la décision. Malgré ces limites, l’approche proposée pour gérer la bio-remédiation in situ des eaux souterraines sur site réel peut être efficace pour fournir un soutien dans la gestion du traitement d’une pollution, étendant ainsi le domaine d’application de la modélisation numérique. Cette approche permet aussi de mettre en évidence des difficultés dues aux spécificités du site ou à la technique même de traitement choisie, permettant d’alerter à temps les gestionnaires. / In-situ bioremediation is a commonly used remediation technology to clean up the subsurface of petroleum-contaminated sites. Although demonstrating the relevance of this type of treatment is an essential prerequisite for each site where it is implemented, the effectiveness of the treatment depends on its implementation conditions in the site-specific context. The monitoring and control of different processes that govern biodegradation phenomena is complex, and optimization is a key element of successful treatment both technically and economically. The general approach of the thesis is the development of a methodology for using modelling in a management approach (as defined in the French regulatory text) of petroleum-contaminated site treated by in situ biodegradation. The work focuses on the use of modelling as a tool for understanding mechanisms and for decision support at every stage of treatment: • System design: defining the best possible option.• Monitoring the effectiveness of treatment: process optimization.• Prediction and justification of stopping treatment: analysis of the uncertainty on the treatment result. Data from two study sites are used to define the modelling methodology. At each stage of the bio-remediation project (design, conception, monitoring and optimization) may be associated a modelling stage that will be more or less sophisticated depending on accuracy requirements. The first tool developed involved predictive uncertainty analysis, which is crucial when modelling is used as a decision support tool, and can be used at the design process step or for predicting the effectiveness of treatment. The process of in-situ bioremediation involves complex and uncertain relationships among biomass, contaminants and appropriate control actions. Forecasting remedial performance (in terms of flux and mass reduction) is a challenge due to uncertainties associated with (i) the medium and source properties and (ii) the efficiency of concentration reducing mechanisms. Parametric uncertainty contributions involved in forecasting treatment performance is carried out with the “Null-Space Monte Carlo” (NSMC) method implemented in the PEST tool. The second tool relates design and / or monitoring optimization of the bio-treatment method. In this context, two purposes can be considered: the reduction of contaminants flux or mass in the source zone. The tool used is a mathematical optimization algorithm called "Particle Swarm Optimization" (PSO). The choice of the objective function to be optimized is particularly important and appears to be related to hydrogeochemical site-specific behavior. This study showed that the NSMC and PSO methods are suitable tools for an efficient use reactive transport models in environmental management. The computation time of these highly parameterized and nonlinear models still limit the use of modelling as a decision support tool. Despite these limitations, the proposed approach for managing the bioremediation in-situ groundwater on actual site can be effective to provide support in managing the treatment of pollution, extending the field of application of numerical modelling. This approach also allows to highlight difficulties due to site-specific behavior or to the treatment technique applied, and to inform decision support managers in consequence.
16

Estimation des fonctions d'offre des principaux pays producteurs de pétrole

Auclair, Vincent 18 April 2018 (has links)
Depuis les deux crises pétrolières des années 70, certains des principaux pays producteurs de pétrole ont connu un essor économique important alors que d'autres n'ont pas su profiter des chances offertes par cette ressource. Chaque pays producteur ayant ses propres caractéristiques de production, est-il possible d'observer des constantes dans l'offre pétrolière de ces pays? Si oui, quelles sont les caractéristiques qui influencent la forme de l'offre de pétrole? Ce mémoire cherche à estimer les fonctions d'offre pétrolière pour 21 des plus importants producteurs mondiaux au cours de la période 1980-2007. Les estimations sont effectuées à l'aide de données annuelles et mensuelles. Les résultats sont analysés de façon à déceler des tendances au niveau des élasticités-prix de ces fonctions d'offre. Les résultats ne permettent pas de tirer des conclusions pour les pays producteurs développés comme le Canada, les Etats-Unis et la Grande-Bretagne ni pour les pays en développement. Cependant, ils confirment le comportement anti-concurrentiel des pays de l'OPEP qui affichent une élasticité-prix négative.
17

Choc pétrolier sur le Québec : modèle DSGE d'une petite économie ouverte importatrice nette de pétrole

Chantal, Antoine 10 January 2024 (has links)
Titre de l'écran-titre (visionné le 4 janvier 2024) / Ce mémoire étudie les conséquences macroéconomiques d'une hausse soudaine du prix mondial du pétrole pour le Québec, une petite économie ouverte importatrice nette de pétrole. Pour ce faire, un modèle d'équilibre général dynamique et stochastique (DSGE) a été développé. Le modèle s'inscrit dans le cadre général des modèles Real Business Cycle (RBC) et tient compte de l'utilisation d'essence par les entreprises ainsi que de la présence de raffineries dans l'économie québécoise. Les résultats indiquent qu'un choc pétrolier entraîne un recul du produit intérieur brut (PIB) québécois, principalement attribuable à la diminution de la consommation des ménages et des dépenses du gouvernement provincial. L'activité économique se rétablit dans un délai d'environ deux ans et demi. Le modèle ne reproduit pas précisément les répercussions économiques qui ont suivi le choc pétrolier de mars 2022 provoqué par l'invasion russe en Ukraine. Une future version du modèle pourrait intégrer des rigidités néo-keynésiennes et une estimation bayésienne des paramètres, tenir compte de la croissance démographique et retirer la contrainte d'équilibre de la balance commerciale imposée par le modèle actuel. / This master's thesis examines the macroeconomic consequences of a sudden increase in the global price of oil for Quebec, a small open economy that is a net oil importer. To do so, a dynamic stochastic general equilibrium (DSGE) model has been developed. The model is rooted in the framework of Real Business Cycle (RBC) models and takes into account the use of gasoline by firms as well as the presence of refineries in the Quebec economy. The results indicate that an oil shock leads to a decline in Quebec's gross domestic product (GDP), primarily driven by a decrease in household consumption and provincial government spending. Economic activity recovers within approximately two and a half years. The model does not precisely replicate the economic repercussions that followed the oil shock of March 2022 caused by the Russian invasion of Ukraine. A future version of the model could incorporate New Keynesian rigidities and a Bayesian estimation of the parameters, account for population growth, and remove the equilibrium constraint on the trade balance imposed by the current model.
18

MICROSCOPIE SOUS HAUTE PRESSION POUR LA MESURE DE TEMPERATURE DE FUSION FINISSANTE DE SYSTEMES PARAFFINIQUES

Milhet, Michel 27 November 2006 (has links) (PDF)
Lors de leur exploitation et de leur transport, les fluides pétroliers subissent de fortes variations de température et de pression susceptibles d'entraîner la formation de dépôts solides. Pour bien comprendre leur comportement, il est indispensable de disposer de données expérimentales fiables permettant de décrire correctement leur diagramme de phase afin d'élaborer des modèles thermodynamiques prédictifs. Au cours de ce travail, un microscope haute pression a été développé pour combler les insuffisances des techniques existantes dans le domaine des équilibres de phase liquide – solide ; il permet de mesurer la température de fusion finissante de divers types de systèmes dans la gamme 0,1 – 100 MPa pour des températures comprises entre 243 et 373 K. Dans un premier temps, ce dispositif a été mis à contribution pour étudier la variation de la température de fusion de corps purs rencontrés au sein des fluides pétroliers (alcanes linéaires, alkylcyclohexanes et alkylbenzènes) en fonction de la pression et du nombre d'atomes de carbone. Cette étude a révélé une dépendance entre la pente des courbes de liquidus dans un diagramme (T, P) et la structure cristalline du solide considéré. Dans un deuxième temps, les températures de fusion finissante de plusieurs mélanges synthétiques ont été étudiées en fonction de la pression. Une modélisation des résultats a été proposée pour chaque système en tenant compte de l'influence de la structure cristalline sur la pente des courbes de liquidus. Enfin, le dispositif de microscopie sous haute pression a permis l'étude de fluides de gisement et une discussion sur la taille des cristaux qui apparaissent dans de tels systèmes est proposée.
19

L'évolution de la structure de gouvernance pétrolière russe : une interprétation en termes néo-institutionnels

Rossiaud, Sylvain 20 September 2012 (has links) (PDF)
Cette thèse traite de l'évolution du cadre organisationnel et institutionnel de l'industrie pétrolière russe durant la période 1992-2012. Son objectif est de caractériser et d'interpréter l'accroissement du rôle des compagnies pétrolières à capitaux majoritairement publics, Rosneft et Gazpromneft, dans les opérations de l'amont pétrolier qui est observé depuis le milieu des années 2000. Dans ce cadre théorique de la Nouvelle économie institutionnelle, notre thèse soutient que le rôle accru des compagnies pétrolières publiques russes marque le passage d'une structure de gouvernance pétrolière libérale à une structure de gouvernance pétrolière hybride. Cela doit être interprété comme la réponse faisable, de la part des autorités fédérales, à l'incohérence existant entre la structure de gouvernance pétrolière libérale définie au début du processus de transition et l'environnement institutionnel prévalant en Russie.
20

Optimisation de placement des puits / Well placement optimization

Bouzarkouna, Zyed 03 April 2012 (has links)
La quantité d’hydrocarbures récupérés peut être considérablement augmentée si un placement optimal des puits non conventionnels à forer, peut être trouvé. Pour cela, l’utilisation d’algorithmes d’optimisation, où la fonction objectif est évaluée en utilisant un simulateur de réservoir, est nécessaire. Par ailleurs, pour des réservoirs avec une géologie complexe avec des hétérogénéités élevées, le problème d’optimisation nécessite des algorithmes capables de faire face à la non-régularité de la fonction objectif. L’objectif de cette thèse est de développer une méthodologie efficace pour déterminer l’emplacement optimal des puits et leurs trajectoires, qui offre la valeur liquidative maximale en utilisant un nombre techniquement abordable de simulations de réservoir.Dans cette thèse, nous montrons une application réussie de l’algorithme “Covariance Matrix Adaptation - Evolution Strategy” (CMA-ES) qui est reconnu comme l’un des plus puissants optimiseurs sans-dérivés pour l’optimisation continue. Par ailleurs, afin de réduire le nombre de simulations de réservoir (évaluations de la fonction objectif), nous concevons deux nouveaux algorithmes. Premièrement, nous proposons une nouvelle variante de la méthode CMA-ES avec des méta-modèles, appelé le nouveau-local-méta-modèle CMA-ES (nlmm-CMA), améliorant la variante déjà existante de la méthode local-méta-modèle CMA-ES (lmm-CMA) sur la plupart des fonctions de benchmark, en particulier pour des tailles de population plus grande que celle par défaut. Ensuite, nous proposons d’exploiter la séparabilité partielle de la fonction objectif durant le processus d’optimisation afin de définir un nouvel algorithme appelé la partiellement séparable local-méta-modèle CMAES (p-sep lmm-CMA), conduisant à une réduction importante en nombre d’évaluations par rapport à la méthode CMA-ES standard.Dans cette thèse, nous appliquons également les algorithmes développés (nlmm-CMA et p-sep lmm-CMA) sur le problème de placement des puits pour montrer, à travers plusieurs exemples, une réduction significative du nombre de simulations de réservoir nécessaire pour trouver la configuration optimale des puits. Les approches proposées sont révélées prometteuses en considérant un budget restreint de simulations de réservoir, qui est le contexte imposé dans la pratique.Enfin, nous proposons une nouvelle approche pour gérer l’incertitude géologique pour le problème d’optimisation de placement des puits. L’approche proposée utilise seulement une réalisation, ainsi que le voisinage de chaque configuration, afin d’estimer sa fonction objectif au lieu d’utiliser multiples réalisations. L’approche est illustrée sur un cas de réservoir de benchmark, et se révèle être en mesure de capturer l’incertitude géologique en utilisant un nombre réduit de simulations de réservoir. / The amount of hydrocarbon recovered can be considerably increased by finding optimal placement of non-conventional wells. For that purpose, the use of optimization algorithms, where the objective function is evaluated using a reservoir simulator, is needed. Furthermore, for complex reservoir geologies with high heterogeneities, the optimization problem requires algorithms able to cope with the non-regularity of the objective function. The goal of this thesis was to develop an efficient methodology for determining optimal well locations and trajectories, that offers the maximum asset value using a technically feasible number of reservoir simulations.In this thesis, we show a successful application of the Covariance Matrix Adaptation - Evolution Strategy (CMA-ES) which is recognized as one of the most powerful derivative-free optimizers for continuous optimization. Furthermore, in order to reduce the number of reservoir simulations (objective function evaluations), we design two new algorithms. First, we propose a new variant of CMA-ES with meta-models, called the newlocal-meta-model CMA-ES (nlmm-CMA), improving over the already existing variant of the local-meta-model CMA-ES (lmm-CMA) on most benchmark functions, in particular for population sizes larger than the default one. Then, we propose to exploit the partial separability of the objective function in the optimization process to define a new algorithm called the partially separable local-meta-model CMA-ES (p-sep lmm-CMA), leading to an important speedup compared to the standard CMA-ES.In this thesis, we apply also the developed algorithms (nlmm-CMA and p-sep lmm-CMA) on the well placement problem to show, through several examples, a significant reduction of the number of reservoir simulations needed to find optimal well configurations. The proposed approaches are shown to be promising when considering a restricted budget of reservoir simulations, which is the imposed context in practice.Finally, we propose a new approach to handle geological uncertainty for the well placement optimization problem. The proposed approach uses only one realization together with the neighborhood of each well configuration in order to estimate its objective function instead of using multiple realizations. The approach is illustrated on a synthetic benchmark reservoir case, and is shown to be able to capture the geological uncertainty using a reduced number of reservoir simulations.

Page generated in 0.0622 seconds