• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Méthode d'identification des efforts appliqués sur une structure vibrante, par résolution et régularisation du problème inverse

Pezerat, Charles 13 December 1996 (has links) (PDF)
On développe une méthode d'identification des efforts qui produisent les vibrations d'une structure, à partir de la connaissance de son champ de déplacement mesuré en un nombre fini de points et de la connaissance à priori de son équation du mouvement. L'identification des efforts est basée sur le calcul du second membre de l'équation du mouvement discrétisée par un schéma aux différences finies. Comme dans la plupart des problèmes inverses, des difficultés se posent et sont dues à une sensibilité extrème aux incertitudes de mesure, introduisant un niveau de bruit élevé sur le résultat. Pour pallier ce problème, une méthode de régularisation originale, nommée R.I.F.F. (Résolution Inverse Filtrée Fenêtrée), a été mise au point. Elle utilise un fenêtrage spatial et un filtrage dans le domaine des nombres d'onde, où les paramètres de réglage sont étudiés en fonction des caractéristiques physiques de la structure. Plusieurs exemples issus de simulations numériques et d'expérimentations montrent les différentes applications que l'on peut obtenir : identification de forces mécaniques ponctuelles, d'efforts de couplage, de pressions acoustiques pariétales. La méthode a été aussi étendue à l'identification des conditions aux limites en termes d'impédances de translation et de rotation. Enfin, une ébauche de la construction d'opérateur de structure par voie expérimentale est proposée. A partir des déplacements mesurés, on identifie l'opérateur différentiel qui leur correspond et on montre ensuite que cet opérateur peut être utilisé pour l'identification des forces qui excitent la structure.
362

Incertitude et flexibilité dans l'optimisation via simulation ; application aux systèmes de production / Uncertainty and flexibility in optimization via simulation; Application Production Systems

Baccouche, Ahlem 16 October 2012 (has links)
La simulation est de plus en plus utilisée dans les études de conception et d’organisation des systèmes complexes. Une étude par optimisation via simulation permet d’optimiser les paramètres d’un système afin d’obtenir les meilleures performances, estimés par la simulation. Toutefois, dans de nombreux systèmes complexes, certaines données sont incertaines (par exemple, les conditions opératoires du système ou le comportement des décideurs). En conséquence, même lorsque l’étude d’optimisation via simulation est réalisée avec le plus grand soin, les solutions obtenues peuvent se révéler inadaptées. Dans ce contexte, notre objectif est d’étudier comment optimiser, via simulation, un système afin qu’il continue d’être performant et robuste. L’étude bibliographique approfondie que nous avons menée montre que très peu de travaux en optimisation via simulation intègrent l’incertain et qu’ils peuvent être très limités dans leur capacité à fournir des solutions robustes en un temps de calcul raisonnable en particulier lorsque des métaheuristiques sont employées. Par ailleurs, la plupart des travaux existants délivrent une solution unique de conception performante du système et ne sont pas adaptés pour prendre en compte les aspects collaboratifs (groupe de décideurs). C’est pourquoi, nous avons proposé une approche originale connectant une recherche des solutions par optimisation évolutionniste multimodale et une évaluation des performances du système via simulation. Notre approche va permettre de fournir plusieurs alternatives performantes de conception d’un système et assez diversifiées pour acquérir aux décideurs une flexibilité dans le choix de la solution à implanter. De plus, nous avons exploité cette flexibilité pour intégrer, d’une part, les préférences individuelles des membres d’une équipe décisionnelle et, d’autre part, la présence de plusieurs environnements pour étudier la robustesse des solutions en un temps de traitement raisonnable par rapport à d’autres approches utilisant des méta heuristiques. Les approches proposées sont illustrées par l’optimisation d’une maille de supply chain. Grâce à cette application, nous avons montré qu’en plus de fournir un choix de solutions performantes pour dimensionner le système, nous pouvons proposer des solutions « collectivement acceptable » pour l’équipe décisionnelle et déterminer des solutions de conception robustes du système. Ces approches fournissent ainsi une flexibilité pour la phase de décision et contribuent à la prise en compte de l’incertitude dans l’optimisation via simulation d’un système. / Simulation is more and more used in studies of design and organization of complex systems. A simulation optimization study search for the system parameters that yield the best performance. However, in many complex systems, data can be uncertain (e.g., the operating conditions of the system or the behavior of decision makers). Therefore, even when the simulation optimization study is performed with the greatest care, the solutions may be inadequate. In this context, our goal is to study how to optimize, via simulation, a robust system. The extensive literature review we conducted shows that few simulation optimization approaches incorporate uncertainty and they can be very limited in their ability to provide robust solutions in a reasonable processing time, especially when metaheuristics are used. In addition, most existing approaches provide a single solution to the design problem and are not adapted to take into account the collaborative aspects (decision maker’s team). Therefore, we propose a novel approach connecting a search for solutions by evolutionary multimodal optimization and the evaluation of the system performance by simulation. Our approach allows to obtain a diverse set of designs that can be considered as efficient in terms of their performance and to provide decision-Makers with flexibility in the choice of the solution to implement. In addition, we use this flexibility to integrate first, the individual preferences of the members of decision maker’s team and secondly, the presence of multiple environments For studying the robustness of solutions in a reasonable processing time compared to other approaches based on metaheuristics. The proposed approaches are illustrated with an example of supply chain. With this application, we have shown that in addition to providing a choice of efficient solutions for sizing the system, we propose "collectively acceptable" solutions to the decision-Making team and we identify robust solutions. Then, these approaches provide flexibility to the decision phase and contribute to the consideration of uncertainty in the simulation optimization of the system.
363

Développement d'une approche floue multicritères pour une planification intégrée couplant la gestion de la performance et du risque / Development of a fuzzy multi-criteria approach for managing performance and risk in integrated procurement–production planning

Khemiri, Rihab 27 November 2017 (has links)
Le présent travail s’intéresse à la prise en compte de l’incertitude et du risque pour l’optimisation de la planification de production au niveau tactique d’une entreprise multi-sites d’une chaîne logistique. La méthode proposée permet d’assurer une planification des opérations de production et d’approvisionnement tout en intégrant au sein de son processus décisionnel un mécanisme de gestion de risque, en présence de diverses sources d’incertitude et d’ambigüité. Pour cela, une «bibliothèque» de critères structurés en deux classes indépendantes : critères de performance et critères de risque a été proposée, dans laquelle le décideur peut sélectionner ceux qui sont en cohérence avec ses préférences et sa stratégie de planification. La méthode doit chercher le bon compromis entre les performances et les risques prédéfinis par le décideur. Pour cela, nous nous somme dirigés dans un premier temps sur le développement d’une approche d’aide à la décision multicritères floue couplant un modèle analytique et la méthode TOPSIS floue. Cette approche consiste à générer un éventail de plans réalisables, caractérisés par leur performance et leur résistance aux risques. Le décideur peut alors choisir le plan qui reflète le compromis le plus adapté à sa stratégie de décision. Une deuxième approche d’optimisation multi-objectifs floue a été proposée dans un deuxième temps pour faire face à des problèmes de planification de grande taille au sein des chaînes logistiques opérant dans un environnement dynamique et incertain. Cette approche combine la méthode TOPSIS Floue, la programmation multi-objectifs possibiliste et la méthode du Goal Programming. L’objectif est de déterminer un plan jugé de bon compromis vis-à- vis des préférences du décideur par rapport aux objectifs de performance et de résistance aux risques. L’instanciation des deux approches proposées sur un exemple numérique a montré leur applicabilité et leur efficacité pour faire face à des problèmes de planification des chaînes logistiques utilisant des données incertaines et des préférences subjectives. Les expérimentations des deux approches permettant de tirer un ensemble d’enseignements utiles. / The work reported in this dissertation deals with risk-oriented integrated procurement–production approaches for tactical planning in a multi-echelon supply chain network presenting various sources of uncertainty and ambiguity. The proposed method allows planning of production and supply operations while integrating a risk management mechanism into its decision-making process, in the presence of various sources of uncertainty and ambiguity. So, a library" of criteria structured into two independent classes: Performance-based and risk-based decision criteria were proposed, in which the decision-maker can select those that are consistent with his preferences and his planning strategy. The method must seek the right compromise between performance and risk predefined by the decision-maker. To reach this goal, we initially focused on the development of a fuzzy multi-criteria decision making approach coupling an analytical model and the fuzzy TOPSIS method. This approach generates a range of feasible plans, characterized by their performance and their resistance to risks. The decision-maker can then choose the plan that reflects the compromise that best suits its decision strategy. Afterwards, a fuzzy multi-objective optimization approach was proposed to deal with large-scale planning problems within supply chains operating in a dynamic and uncertain environment. This approach second combines the Fuzzy TOPSIS method, the possibilistic multi-objective programming and the Goal Programming method. The objective is to determine a plan that is judged to be a good compromise compared to the decision maker's preferences regarding the performance and risk objectives. The instantiation of the two proposed approaches on a numerical example has shown their applicability and tractability to deal with supply chain planning problems in the presence of uncertain data and subjective preferences. The experiments of the two approaches make it possible to draw a useful set of lessons. The experiments of the two approaches show a set of useful issues.
364

Supply chain management under availability & uncertainty constraints / Le management de la chaîne logistique sous contraintes de disponibilité et d'incertitude

Zheng, Yahong 10 October 2012 (has links)
Le management de la chaîne logistique concerne un large éventail d’activités. Nombreuses ceux qui ont un caractère incertain apportant souvent des conséquences inattendues. Malgré cela, l’incertitude est fréquemment non considérée dans la gestion de la chaîne logistique traditionnelle. En plus de l’incertitude, l’indisponibilité des ressources augmentera la complexité du problème. En prenons en compte les contraintes d’incertitude et de disponibilité nous étudions le management de la chaîne logistique selon différents aspects. Cette thèse représente une tentative de recherche afin d’aborder ce problème d’une façon systématique et complète et nous espérons que notre travail contribuera aux futurs travaux de recherche et sera utile aux gestionnaires de la chaîne logistique. Nous nous concentrons sur trois sources classiques de l’incertitude ; celle de la demande, celle la fabrication et celle liée à la distribution. Pour chaque source d’incertitude, nous analysons ses causes et ses impacts sur les performances de la chaîne logistique. L’incertitude est spécifiée dans des problèmes classiques concrets et des approches sont proposées pour les résoudre. Nous nous sommes également focalisés sur le problème bi-niveau de vendeur de journaux qui représente une chaîne logistique miniature, concerné par une double incertitude. Les méthodes utilisées offrent une bonne démonstration du traitement des variables incertaines dans les problèmes de décision / Supply chain management involves a wide range of activities. Among most of them, uncertainty exists inherently and always brings some consequence not expected. However, uncertainty is not considered much in conventional supply chain management. In the case where availability of resources is not what we expect, complexity of supply chain management increases. Taking constraints of uncertainty and availability into account, we aim to discuss supply chain management from different aspects. This thesis is an attempt of systematic and complete research from this point and we would like to offer some references to researchers and managers in supply chain. We focus on three classic sources of uncertainty: demand, manufacturing and distribution. For each source of uncertainty, we analyze its cause and its impact to the performance of the supply chain. Uncertainty is specified into concrete classic problem and an approach is proposed to solve it. Furthermore, bi-level newsboy problem as a miniature of supply chain, is focused under double uncertain environment. Treating uncertain variables is actually a treatment on operational level. The methods used offer good demonstration in treating uncertain variables in decision problems
365

Empirical essays on education and social cohesion in fragile settings / Essais empiriques sur l’´education et la cohésion sociale dans les contextes fragiles

Musić, Almedina 31 May 2018 (has links)
Cette thèse se compose de trois essais sur l’éducation et la cohésion sociale dans les pays en développement, et plus particulièrement en Égypte et en Indonésie. Le premier chapitre analyse les comportements des ménages en Égypte, notamment l’investissement pour l’éducation et la santé, suite à la révolution de 2011, que nous interprétons ici comme un environnement instable. Pour étudier les effets du déclenchement de la révolution Égyptienne, nous combinons l’enquête représentative des ménages avec un enregistrement statistique unique de toutes les personnes arrêtées, blessées ou tuées lors des manifestations politiques dans le pays. Nos résultats montrent que les ménages adaptent considérablement leur comportement dans un contexte politique instable. Le deuxième chapitre analyse les conséquences des tremblements de terre sur l’éducation et les mesures de santé des enfants en Indonésie. Nous constatons que les résultats en matière d’éducation et de santé des enfants sont négativement affectées lorsqu’un ménage subit un tremblement de terre, avec une certaine hétérogénéité selon l’âge et le sexe de l’enfant. Le troisième chapitre analyse les effets du favoritisme ethnique dans l’attribution des transferts gouvernementaux aux ménages suite à une catastrophe naturelle Les résultats suggèrent que bien que tous les ménages d’un même village soient affectées, les ménages les plus susceptibles de recevoir des transferts gouvernementaux sont ceux qui partagent la même origine ethnique que le leader de la communauté. Mes conclusions démontrent également que dans les villages ou le favoritisme ethnique est répandu, la confiance entre groupes ethniques s’est réduite entre 2007 et 2014. / This thesis is a collection of three independent essays in empirical development economics, with a particular focus on the study of mechanisms that impact education and social cohesion in Egypt and Indonesia. The first chapter analyses the effects of the Egyptian Revolution on education and health spendings as well as savings. We construct a new measure of revolution intensity and match a representative household panel survey data with a unique statistical record that documents the number of arrested, injured and deaths during the uprisings in Egypt. We find that households significantly adapt their behaviour in a politically unstable environment. The second chapter analyses the short and long-term effects of earthquakes on children’s education and health outcomes. Findings rely on individual-level panel data from large-scale household surveys combined with precise measures of local ground tremors obtained from a US Geological Survey database. Results suggest that children’s education and health out-comes decrease with some heterogeneity by age and gender. The third chapter identifies ethnic favouritism in the distribution of post-disaster aid at household level in the context of Indonesia. Results show that co-ethnic households are more likely to receive post-disaster relief transfers than households that were equally affected by a natural disaster, but do not share the same ethnicity as the community leader. Results also suggest that ethnic favouritism significantly reduces social cohesion measured by trust in affected communities.Keywords: Education; Health; Cognitive skills; Critical age; Post-disaster aid; Household savings; Trust; Natural disaster; Political instability; Ethnic diversity; Ethnic favouritism; Egypt; Indonesia.
366

Vision-based moving pedestrian recognition from imprecise and uncertain data / Reconnaissance de piétons par vision à partir de données imprécises et incertaines

Zhou, Dingfu 05 December 2014 (has links)
La mise en oeuvre de systèmes avancés d’aide à la conduite (ADAS) basée vision, est une tâche complexe et difficile surtout d’un point de vue robustesse en conditions d’utilisation réelles. Une des fonctionnalités des ADAS vise à percevoir et à comprendre l’environnement de l’ego-véhicule et à fournir l’assistance nécessaire au conducteur pour réagir à des situations d’urgence. Dans cette thèse, nous nous concentrons sur la détection et la reconnaissance des objets mobiles car leur dynamique les rend plus imprévisibles et donc plus dangereux. La détection de ces objets, l’estimation de leurs positions et la reconnaissance de leurs catégories sont importants pour les ADAS et la navigation autonome. Par conséquent, nous proposons de construire un système complet pour la détection des objets en mouvement et la reconnaissance basées uniquement sur les capteurs de vision. L’approche proposée permet de détecter tout type d’objets en mouvement en fonction de deux méthodes complémentaires. L’idée de base est de détecter les objets mobiles par stéréovision en utilisant l’image résiduelle du mouvement apparent (RIMF). La RIMF est définie comme l’image du mouvement apparent causé par le déplacement des objets mobiles lorsque le mouvement de la caméra a été compensé. Afin de détecter tous les mouvements de manière robuste et de supprimer les faux positifs, les incertitudes liées à l’estimation de l’ego-mouvement et au calcul de la disparité doivent être considérées. Les étapes principales de l’algorithme sont les suivantes : premièrement, la pose relative de la caméra est estimée en minimisant la somme des erreurs de reprojection des points d’intérêt appariées et la matrice de covariance est alors calculée en utilisant une stratégie de propagation d’erreurs de premier ordre. Ensuite, une vraisemblance de mouvement est calculée pour chaque pixel en propageant les incertitudes sur l’ego-mouvement et la disparité par rapport à la RIMF. Enfin, la probabilité de mouvement et le gradient de profondeur sont utilisés pour minimiser une fonctionnelle d’énergie de manière à obtenir la segmentation des objets en mouvement. Dans le même temps, les boîtes englobantes des objets mobiles sont générées en utilisant la carte des U-disparités. Après avoir obtenu la boîte englobante de l’objet en mouvement, nous cherchons à reconnaître si l’objet en mouvement est un piéton ou pas. Par rapport aux algorithmes de classification supervisée (comme le boosting et les SVM) qui nécessitent un grand nombre d’exemples d’apprentissage étiquetés, notre algorithme de boosting semi-supervisé est entraîné avec seulement quelques exemples étiquetés et de nombreuses instances non étiquetées. Les exemples étiquetés sont d’abord utilisés pour estimer les probabilités d’appartenance aux classes des exemples non étiquetés, et ce à l’aide de modèles de mélange de gaussiennes après une étape de réduction de dimension réalisée par une analyse en composantes principales. Ensuite, nous appliquons une stratégie de boosting sur des arbres de décision entraînés à l’aide des instances étiquetées de manière probabiliste. Les performances de la méthode proposée sont évaluées sur plusieurs jeux de données de classification de référence, ainsi que sur la détection et la reconnaissance des piétons. Enfin, l’algorithme de détection et de reconnaissances des objets en mouvement est testé sur les images du jeu de données KITTI et les résultats expérimentaux montrent que les méthodes proposées obtiennent de bonnes performances dans différents scénarios de conduite en milieu urbain. / Vision-based Advanced Driver Assistance Systems (ADAS) is a complex and challenging task in real world traffic scenarios. The ADAS aims at perceiving andunderstanding the surrounding environment of the ego-vehicle and providing necessary assistance for the drivers if facing some emergencies. In this thesis, we will only focus on detecting and recognizing moving objects because they are more dangerous than static ones. Detecting these objects, estimating their positions and recognizing their categories are significantly important for ADAS and autonomous navigation. Consequently, we propose to build a complete system for moving objects detection and recognition based on vision sensors. The proposed approach can detect any kinds of moving objects based on two adjacent frames only. The core idea is to detect the moving pixels by using the Residual Image Motion Flow (RIMF). The RIMF is defined as the residual image changes caused by moving objects with compensated camera motion. In order to robustly detect all kinds of motion and remove false positive detections, uncertainties in the ego-motion estimation and disparity computation should also be considered. The main steps of our general algorithm are the following : first, the relative camera pose is estimated by minimizing the sum of the reprojection errors of matched features and its covariance matrix is also calculated by using a first-order errors propagation strategy. Next, a motion likelihood for each pixel is obtained by propagating the uncertainties of the ego-motion and disparity to the RIMF. Finally, the motion likelihood and the depth gradient are used in a graph-cut-based approach to obtain the moving objects segmentation. At the same time, the bounding boxes of moving object are generated based on the U-disparity map. After obtaining the bounding boxes of the moving object, we want to classify the moving objects as a pedestrian or not. Compared to supervised classification algorithms (such as boosting and SVM) which require a large amount of labeled training instances, our proposed semi-supervised boosting algorithm is trained with only a few labeled instances and many unlabeled instances. Firstly labeled instances are used to estimate the probabilistic class labels of the unlabeled instances using Gaussian Mixture Models after a dimension reduction step performed via Principal Component Analysis. Then, we apply a boosting strategy on decision stumps trained using the calculated soft labeled instances. The performances of the proposed method are evaluated on several state-of-the-art classification datasets, as well as on a pedestrian detection and recognition problem.Finally, both our moving objects detection and recognition algorithms are tested on the public images dataset KITTI and the experimental results show that the proposed methods can achieve good performances in different urban scenarios.
367

Assessment of concrete strength in existing structures using nondestructive tests and cores : analysis of current methodology and recommendations for more reliable assessment / Évaluation de la résistance mécanique du béton dans les ouvrages existants en utilisant les tests non-destructifs et carottes : analyse de la méthodologie courante et recommandations pour évaluation plus fiable

Alwash, Maitham Fadhil Abbas 10 May 2017 (has links)
Pour évaluer la résistance mécanique du béton dans un ouvrage existant, la méthodologie courante combine des mesures non destructives (CND) comme le rebond ou/et la vitesse des ondes ultrasoniques avec la technique destructive (carottes) afin de produire une relation‘‘modèle de conversion” entre la résistance mécanique et les mesures CND. Le modèle de conversion est utilisé pour estimer la valeur locale de résistance mécanique à chaque emplacement de test en utilisant la valeur CND correspondante. Ensuite, on calcule les estimations de la résistance moyenne et/ou de l’écart-type de la résistance (variabilité de la résistance du béton). Cependant, la fiabilité d’estimation est toujours discutable en raison des incertitudes associées à l’évaluation de la résistance basée sur les mesures CND. Pour améliorer la fiabilité, les incertitudes doivent être réduites en spécifiant et en contrôlant leurs facteurs d’influence. Par conséquent, l’objectif de cette thèse est d’analyser la méthodologie d’évaluation courante afin de fournir des recommandations pratiques qui peuvent améliorer la fiabilité de l’évaluation de la résistance in-situ du béton dans les ouvrages existantes par des tests non destructifs et des carottes.Pour ce but, un simulateur a été construit afin d’analyser les effets des facteurs les plus influents en utilisant une vaste campagne de données provenant de sources différentes (études in situ ou en laboratoire et données synthétiques générées). La première contribution de ce travail est le développement d’une nouvelle approche d’identification du modèle ‘‘bi-objectif” qui peut efficacement capturer la variabilité de la résistance mécanique en plus de la moyenne. Après avoir étudié l’effet du mode de sélection des emplacements pour les carottes, une méthode a été proposée pour sélectionner ces emplacements en fonction des mesures CND ‘‘sélection conditionnelle” qui améliore la qualité de l’évaluation sans coût supplémentaire. Une dernière innovation est l’établissement de courbes de risque qui quantifient la relation entre le nombre de carottes et la précision de l’estimation. Enfin, des recommandations ont été formulées afin de fournir des estimations plus fiables. / To assess concrete strength in an existing structure, the current methodology combines nondestructive measurements (NDT) like rebound hammer or/and pulse velocity with destructive technique (cores) in order to implement a relationship ‘‘conversion model” between the compressive strength and NDT measurements. The conversion model is used to estimate the local strength value at each test location using the corresponding NDT value.Then the estimated mean strength and/or estimated strength standard deviation (concrete strength variability) values are calculated. However, the reliability of these estimated values isalways a questionable issue because of the uncertainties associated with the strength assessment based upon NDT measurements. To improve the reliability, the uncertainties must be reduced by specifying and controlling their influencing factors. Therefore, the objective of this thesis is to analyze the current assessment methodology in order to provide practical recommendations that can improve the reliability of assessing the in-situ strength in existing concrete structures by nondestructive tests and cores.To this end, a simulator was built in order to analyze the effects of the most influencing factors using a large campaign of datasets from different sources (in-situ or laboratory studies,and generated synthetic data).The first contribution of this work is the development of a new model identification approach“bi-objective” that can efficiently capture the strength variability in addition to the mean strength. After studying the effect of the way of selection the core locations, a method was proposed to select these locations depending on the NDT measurements “conditional selection” that improves the quality of assessment without additional cost. A third innovation was the development of a procedure to identify the relation between the number of cores and the accuracy of the estimation. Finally recommendations were derived in order to providemore reliable estimated values.
368

Application of hybrid uncertainty-clustering approach in pre-processing well-logs / Application de l'approche hybride incertitude-partitionnement pour le prétraitement des données de diagraphie

Masoudi, Pedram 16 May 2017 (has links)
La thèse est principalement centrée sur l'étude de la résolution verticale des diagraphies. On outre, l'arithmétique floue est appliquée aux modèles expérimentaux pétrophysiques en vue de transmettre l'incertitude des données d'entrée aux données de sortie, ici la saturation irréductible en eau et la perméabilité. Les diagraphies sont des signaux digitaux dont les données sont des mesures volumétriques. Le mécanisme d'enregistrement de ces données est modélisé par des fonctions d'appartenance floues. On a montré que la Résolution Verticale de la Fonction d'Appartenance (VRmf) est supérieur d'espacement. Dans l'étape suivante, la fréquence de Nyquist est revue en fonction du mécanisme volumétrique de diagraphie ; de ce fait, la fréquence volumétrique de Nyquist est proposée afin d'analyser la précision des diagraphies. Basé sur le modèle de résolution verticale développée, un simulateur géométrique est conçu pour générer les registres synthétiques d'une seule couche mince. Le simulateur nous permet d'analyser la sensibilité des diagraphies en présence d'une couche mince. Les relations de régression entre les registres idéaux (données d'entrée de ce simulateur) et les registres synthétiques (données de sortie de ce simulateur) sont utilisées comme relations de déconvolution en vue d'enlever l'effet des épaules de couche d'une couche mince sur les diagraphies GR, RHOB et NPHI. Les relations de déconvolution ont bien été appliquées aux diagraphies pour caractériser les couches minces. Par exemple, pour caractériser une couche mince poreuse, on a eu recours aux données de carottage qui étaient disponibles pour la vérification : NPHI mesuré (3.8%) a été remplacé (corrigé) par 11.7%. NPHI corrigé semble être plus précis que NPHI mesuré, car la diagraphie a une valeur plus grande que la porosité de carottage (8.4%). Il convient de rappeler que la porosité totale (NPHI) ne doit pas être inférieure à la porosité effective (carottage). En plus, l'épaisseur de la couche mince a été estimée à 13±7.5 cm, compatible avec l'épaisseur de la couche mince dans la boite de carottage (<25 cm). Normalement, l'épaisseur in situ est inférieure à l'épaisseur de la boite de carottage, parce que les carottes obtenues ne sont plus soumises à la pression lithostatique, et s'érodent à la surface du sol. La DST est appliquée aux diagraphies, et l'intervalle d'incertitude de DST est construit. Tandis que la VRmf des diagraphies GR, RHOB, NPHI et DT est ~60 cm, la VRmf de l'intervalle d'incertitude est ~15 cm. Or, on a perdu l'incertitude de la valeur de diagraphie, alors que la VRmf est devenue plus précise. Les diagraphies ont été ensuite corrigées entre l'intervalle d'incertitude de DST avec quatre simulateurs. Les hautes fréquences sont amplifiées dans les diagraphies corrigées, et l'effet des épaules de couche est réduit. La méthode proposée est vérifiée dans les cas synthétiques, la boite de carottage et la porosité de carotte. L'analyse de partitionnement est appliquée aux diagraphies NPHI, RHOB et DT en vue de trouver l'intervalle d'incertitude, basé sur les grappes. Puis, le NPHI est calibré par la porosité de carottes dans chaque grappe. Le √MSE de NPHI calibré est plus bas par rapport aux cinq modèles conventionnels d'estimation de la porosité (au minimum 33% d'amélioration du √MSE). Le √MSE de généralisation de la méthode proposée entre les puits voisins est augmenté de 42%. L'intervalle d'incertitude de la porosité est exprimé par les nombres flous. L'arithmétique floue est ensuite appliquée dans le but de calculer les nombres flous de la saturation irréductible en eau et de la perméabilité. Le nombre flou de la saturation irréductible en eau apporte de meilleurs résultats en termes de moindre sous-estimation par rapport à l'estimation nette. Il est constaté que lorsque les intervalles de grappes de porosité ne sont pas compatibles avec la porosité de carotte, les nombres flous de la perméabilité ne sont pas valables. / In the subsurface geology, characterization of geological beds by well-logs is an uncertain task. The thesis mainly concerns studying vertical resolution of well-logs (question 1). In the second stage, fuzzy arithmetic is applied to experimental petrophysical relations to project the uncertainty range of the inputs to the outputs, here irreducible water saturation and permeability (question 2). Regarding the first question, the logging mechanism is modelled by fuzzy membership functions. Vertical resolution of membership function (VRmf) is larger than spacing and sampling rate. Due to volumetric mechanism of logging, volumetric Nyquist frequency is proposed. Developing a geometric simulator for generating synthetic-logs of a single thin-bed enabled us analysing sensitivity of the well-logs to the presence of a thin-bed. Regression-based relations between ideal-logs (simulator inputs) and synthetic-logs (simulator outputs) are used as deconvolution relations for removing shoulder-bed effect of thin-beds from GR, RHOB and NPHI well-logs. NPHI deconvolution relation is applied to a real case where the core porosity of a thin-bed is 8.4%. The NPHI well-log is 3.8%, and the deconvolved NPHI is 11.7%. Since it is not reasonable that the core porosity (effective porosity) be higher than the NPHI (total porosity), the deconvolved NPHI is more accurate than the NPHI well-log. It reveals that the shoulder-bed effect is reduced in this case. The thickness of the same thin-bed was also estimated to be 13±7.5 cm, which is compatible with the thickness of the thin-bed in the core box (<25 cm). Usually, in situ thickness is less than the thickness of the core boxes, since at the earth surface, there is no overburden pressure, also the cores are weathered. Dempster-Shafer Theory (DST) was used to create well-log uncertainty range. While the VRmf of the well-logs is more than 60 cm, the VRmf of the belief and plausibility functions (boundaries of the uncertainty range) would be about 15 cm. So, the VRmf is improved, while the certainty of the well-log value is lost. In comparison with geometric method, DST-based algorithm resulted in a smaller uncertainty range of GR, RHOB and NPHI logs by 100%, 71% and 66%, respectively. In the next step, cluster analysis is applied to NPHI, RHOB and DT for the purpose of providing cluster-based uncertainty range. Then, NPHI is calibrated by core porosity value in each cluster, showing low √MSE compared to the five conventional porosity estimation models (at least 33% of improvement in √MSE). Then, fuzzy arithmetic is applied to calculate fuzzy numbers of irreducible water saturation and permeability. Fuzzy number of irreducible water saturation provides better (less overestimation) results than the crisp estimation. It is found that when the cluster interval of porosity is not compatible with the core porosity, the permeability fuzzy numbers are not valid, e.g. in well#4. Finally, in the possibilistic approach (the fuzzy theory), by calibrating α-cut, the right uncertainty interval could be achieved, concerning the scale of the study.
369

Evaluation de la Performance des Réglages de Fréquence des Eoliennes à l’Echelle du Système Electrique : Application à un Cas Insulaire / Performance Evaluation of Frequency Response from Wind Turbines on a System-Wide Scale : Application onto an Isolated Power System Case

Wang, Ye 20 November 2012 (has links)
L’intégration croissante de la production éolienne ne participant pas au réglage de fréquence induit de nouvelles difficultés de gestion des systèmes électriques. Ces problèmes sont d’autant plus significatifs que le réseau est faible. La présente thèse vise à évaluer la performance et la fiabilité du réglage de fréquence des éoliennes à l’échelle du système électrique. Les études sont appliquées sur un réseau insulaire.D’abord, l’impact d’un fort taux de pénétration de la production éolienne sur l’allocation de la réserve primaire et sur le comportement dynamique du réseau est caractérisé. Il est montré que la participation des éoliennes au réglage de fréquence est techniquement indispensable pour le maintien de la sûreté du système électrique à partir d’un certain taux de pénétration. Deux solutions permettant aux éoliennes de contribuer au réglage de fréquence sont ensuite étudiées par simulations dynamiques. La performance d’une inertie émulée est caractérisée en considérant l’impact du point de fonctionnement initial des éoliennes et des paramètres du contrôleur. La contribution de la réserve éolienne à l’amélioration de la performance dynamique du système est également identifiée.Afin d’évaluer le potentiel et la fiabilité de la réserve éolienne, la dernière partie de ce travail est consacrée aux études statistiques prenant en compte la variabilité et l’incertitude de la prévision de la production. Deux stratégies du placement de réserve sont proposées et comparées. L’impact des erreurs de prévision sur le potentiel de réserve éolienne est également mis en évidence. Enfin l’énergie réglante d’une ferme et la plage de réglage du statisme éolien sont caractérisées / The increasing development of wind power that does not participate in frequency control leads to new challenges in the management of electrical power systems. The problems are more significant in weak power grids. The present thesis aims to evaluate the performance and the reliability of frequency response from wind turbines on a system-wide scale. Studies are applied onto an isolated power grid.First of all, the impact of high levels of wind penetration on primary reserve allocation and on grid dynamic behaviour is characterized. It is shown that the participation of wind turbines in frequency regulation is technically required for maintaining power system security from a certain wind penetration rate.Two solutions allowing wind turbines to contribute to frequency control are then studied through dynamic simulations. The performance of emulated inertia is characterized by taking into account the impact of initial wind operating point and controller parameters. The contribution of wind power reserve to system dynamic performance improvement is also identified.In order to assess the potential and the reliability of wind primary reserve, the last part of this research work is devoted to statistical analyses considering the variability and the prediction uncertainty of wind generation. Two strategies for reserve allocation are proposed and compared. The impact of forecast errors on the potential of wind power reserve is also highlighted. Finally the power frequency characteristic of a wind farm as well as the droop adjustment range is characterized
370

Essays on the economics of risk and uncertainty

Berger, Loïc 22 June 2012 (has links)
In the first chapter of this thesis, I use the smooth ambiguity model developed by Klibanoff, Marinacci, and Mukerji (2005) to define the concepts of ambiguity and uncertainty premia in a way analogous to what Pratt (1964) did in the risk theory literature. I show that these concepts may be useful to quantify the effect ambiguity has on the welfare of economic agents. I also define several other concepts such as the unambiguous probability equivalent or the ambiguous utility premium, provide local approximations of these different premia and show the link that exists between them when comparing different degrees of ambiguity aversion not only in the small, but also in the large. <p><p>In the second chapter, I analyze the effect of ambiguity on self-insurance and self-protection, that are tools used to deal with the uncertainty of facing a monetary loss when market insurance is not available (in the self-insurance model, the decision maker has the opportunity to furnish an effort to reduce the size of the loss occurring in the bad state of the world, while in the self-protection – or prevention – model, the effort reduces the probability of being in the bad state). <p>In a short note, in the context of a two-period model I first examine the links between risk-aversion, prudence and self-insurance/self-protection activities under risk. Contrary to the results obtained in the static one-period model, I show that the impacts of prudence and of risk-aversion go in the same direction and generate a higher level of prevention in the more usual situations. I also show that the results concerning self-insurance in a single period framework may be easily extended to a two-period context. <p>I then consider two-period self-insurance and self-protection models in the presence of ambiguity and analyze the effect of ambiguity aversion. I show that in most common situations, ambiguity prudence is a sufficient condition to observe an increase in the level of effort. I propose an interpretation of the model in the context of climate change, so that self-insurance and self-protection are respectively seen as adaptation and mitigation efforts a policy-maker should provide to deal with an uncertain catastrophic event, and interpret the results obtained as an expression of the Precautionary Principle. <p><p>In the third chapter, I introduce the economic theory developed to deal with ambiguity in the context of medical decision-making. I show that, under diagnostic uncertainty, an increase in ambiguity aversion always leads a physician whose goal is to act in the best interest of his patient, to choose a higher level of treatment. In the context of a dichotomic choice (treatment versus no treatment), this result implies that taking into account the attitude agents generally manifest towards ambiguity may induce a physician to change his decision by opting for treatment more often. I further show that under therapeutic uncertainty, the opposite happens, i.e. an ambiguity averse physician may eventually choose not to treat a patient who would have been treated under ambiguity neutrality. <p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished

Page generated in 0.0419 seconds