• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Towards Reducing Structural Interpretation Uncertainties Using Seismic Data / Vers la réduction des incertitudes d'interprétation structurale à l'aide de données sismiques

Irakarama, Modeste 25 April 2019 (has links)
Les modèles géologiques sont couramment utilisés pour estimer les ressources souterraines, pour faire des simulations numériques, et pour évaluer les risques naturels ; il est donc important que les modèles géologiques représentent la géométrie des objets géologiques de façon précise. La première étape pour construire un modèle géologique consiste souvent à interpréter des surfaces structurales, telles que les failles et horizons, à partir d'une image sismique ; les objets géologiques identifiés sont ensuite utilisés pour construire le modèle géologique par des méthodes d'interpolation. Les modèles géologiques construits de cette façon héritent donc les incertitudes d'interprétation car une image sismique peut souvent supporter plusieurs interprétations structurales. Dans ce manuscrit, j'étudie le problème de réduire les incertitudes d'interprétation à l'aide des données sismiques. Particulièrement, j'étudie le problème de déterminer, à l'aide des données sismiques, quels modèles sont plus probables que d'autres dans un ensemble des modèles géologiques cohérents. Ce problème sera connu par la suite comme "le problème d'évaluation des modèles géologiques par données sismiques". J'introduis et formalise ce problème. Je propose de le résoudre par génération des données sismiques synthétiques pour chaque interprétation structurale dans un premier temps, ensuite d'utiliser ces données synthétiques pour calculer la fonction-objectif pour chaque interprétation ; cela permet de classer les différentes interprétations structurales. La difficulté majeure d'évaluer les modèles structuraux à l'aide des données sismiques consiste à proposer des fonctions-objectifs adéquates. Je propose un ensemble de conditions qui doivent être satisfaites par la fonction-objectif pour une évaluation réussie des modèles structuraux à l'aide des données sismiques. Ces conditions imposées à la fonction-objectif peuvent, en principe, être satisfaites en utilisant les données sismiques de surface (« surface seismic data »). Cependant, en pratique il reste tout de même difficile de proposer et de calculer des fonctions-objectifs qui satisfassent ces conditions. Je termine le manuscrit en illustrant les difficultés rencontrées en pratique lorsque nous cherchons à évaluer les interprétations structurales à l'aide des données sismiques de surface. Je propose une fonction-objectif générale faite de deux composants principaux : (1) un opérateur de résidus qui calcule les résidus des données, et (2) un opérateur de projection qui projette les résidus de données depuis l'espace de données vers l'espace physique (le sous-sol). Cette fonction-objectif est donc localisée dans l'espace car elle génère des valeurs en fonction de l'espace. Cependant, je ne suis toujours pas en mesure de proposer une implémentation pratique de cette fonction-objectif qui satisfasse les conditions imposées pour une évaluation réussie des interprétations structurales ; cela reste un sujet de recherche. / Subsurface structural models are routinely used for resource estimation, numerical simulations, and risk management; it is therefore important that subsurface models represent the geometry of geological objects accurately. The first step in building a subsurface model is usually to interpret structural features, such as faults and horizons, from a seismic image; the identified structural features are then used to build a subsurface model using interpolation methods. Subsurface models built this way therefore inherit interpretation uncertainties since a single seismic image often supports multiple structural interpretations. In this manuscript, I study the problem of reducing interpretation uncertainties using seismic data. In particular, I study the problem of using seismic data to determine which structural models are more likely than others in an ensemble of geologically plausible structural models. I refer to this problem as "appraising structural models using seismic data". I introduce and formalize the problem of appraising structural interpretations using seismic data. I propose to solve the problem by generating synthetic data for each structural interpretation and then to compute misfit values for each interpretation; this allows us to rank the different structural interpretations. The main challenge of appraising structural models using seismic data is to propose appropriate data misfit functions. I derive a set of conditions that have to be satisfied by the data misfit function for a successful appraisal of structural models. I argue that since it is not possible to satisfy these conditions using vertical seismic profile (VSP) data, it is not possible to appraise structural interpretations using VSP data in the most general case. The conditions imposed on the data misfit function can in principle be satisfied for surface seismic data. In practice, however, it remains a challenge to propose and compute data misfit functions that satisfy those conditions. I conclude the manuscript by highlighting practical issues of appraising structural interpretations using surface seismic data. I propose a general data misfit function that is made of two main components: (1) a residual operator that computes data residuals, and (2) a projection operator that projects the data residuals from the data-space into the image-domain. This misfit function is therefore localized in space, as it outputs data misfit values in the image-domain. However, I am still unable to propose a practical implementation of this misfit function that satisfies the conditions imposed for a successful appraisal of structural interpretations; this is a subject for further research.
152

Stochastic modelling of flood phenomena based on the combination of mechanist and systemic approaches / Couplage entre approches mécaniste et systémique pour la modélisation stochastique des phénomènes de crues

Boutkhamouine, Brahim 14 December 2018 (has links)
Les systèmes de prévision des crues décrivent les transformations pluie-débit en se basant sur des représentations simplifiées. Ces représentations modélisent les processus physiques impliqués avec des descriptions empiriques, ou basées sur des équations de la mécanique classique. Les performances des modèles actuels de prévision des crues sont affectées par différentes incertitudes liées aux approximations et aux paramètres du modèle, aux données d’entrée et aux conditions initiales du bassin versant. La connaissance de ces incertitudes permet aux décideurs de mieux interpréter les prévisions et constitue une aide à la décision lors de la gestion de crue. L’analyse d’incertitudes dans les modèles hydrologiques existants repose le plus souvent sur des simulations de Monte-Carlo (MC). La mise en œuvre de ce type de techniques requiert un grand nombre de simulations et donc un temps de calcul potentiellement important. L'estimation des incertitudes liées à la modélisation hydrologique en temps réel reste donc une gageure. Dans ce projet de thèse, nous développons une méthodologie de prévision des crues basée sur les réseaux Bayésiens (RB). Les RBs sont des graphes acycliques dans lesquels les nœuds correspondent aux variables caractéristiques du système modélisé et les arcs représentent les dépendances probabilistes entre ces variables. La méthodologie présentée propose de construire les RBs à partir des principaux facteurs hydrologiques contrôlant la génération des crues, en utilisant à la fois les observations disponibles de la réponse du système et les équations déterministes décrivant les processus concernés. Elle est conçue pour prendre en compte la variabilité temporelle des différentes variables impliquées. Les dépendances probabilistes entre les variables (paramètres) peuvent être spécifiées en utilisant des données observées, des modèles déterministes existants ou des avis d’experts. Grâce à leurs algorithmes d’inférence, les RBs sont capables de propager rapidement, à travers le graphe, différentes sources d'incertitudes pour estimer leurs effets sur la sortie du modèle (ex. débit d'une rivière). Plusieurs cas d’études sont testés. Le premier cas d’étude concerne le bassin versant du Salat au sud-ouest de la France : un RB est utilisé pour simuler le débit de la rivière à une station donnée à partir des observations de 3 stations hydrométriques localisées en amont. Le modèle présente de bonnes performances pour l'estimation du débit à l’exutoire. Utilisé comme méthode inverse, le modèle affiche également de bons résultats quant à la caractérisation de débits d’une station en amont par propagation d’observations de débit sur des stations en aval. Le deuxième cas d’étude concerne le bassin versant de la Sagelva situé en Norvège, pour lequel un RB est utilisé afin de modéliser l'évolution du contenu en eau de la neige en fonction des données météorologiques disponibles. Les performances du modèle sont conditionnées par les données d’apprentissage utilisées pour spécifier les paramètres du modèle. En l'absence de données d'observation pertinentes pour l’apprentissage, une méthodologie est proposée et testée pour estimer les paramètres du RB à partir d’un modèle déterministe. Le RB résultant peut être utilisé pour effectuer des analyses d’incertitudes sans recours aux simulations de Monte-Carlo. Au regard des résultats enregistrés sur les différents cas d’études, les RBs se révèlent utiles et performants pour une utilisation en support d’un processus d'aide à la décision dans le cadre de la gestion du risque de crue. / Flood forecasting describes the rainfall-runoff transformation using simplified representations. These representations are based on either empirical descriptions, or on equations of classical mechanics of the involved physical processes. The performances of the existing flood predictions are affected by several sources of uncertainties coming not only from the approximations involved but also from imperfect knowledge of input data, initial conditions of the river basin, and model parameters. Quantifying these uncertainties enables the decision maker to better interpret the predictions and constitute a valuable decision-making tool for flood risk management. Uncertainty analysis on existing rainfall-runoff models are often performed using Monte Carlo (MC)- simulations. The implementation of this type of techniques requires a large number of simulations and consequently a potentially important calculation time. Therefore, quantifying uncertainties of real-time hydrological models is challenging. In this project, we develop a methodology for flood prediction based on Bayesian networks (BNs). BNs are directed acyclic graphs where the nodes correspond to the variables characterizing the modelled system and the arcs represent the probabilistic dependencies between these variables. The presented methodology suggests to build the RBs from the main hydrological factors controlling the flood generation, using both the available observations of the system response and the deterministic equations describing the processes involved. It is, thus, designed to take into account the time variability of different involved variables. The conditional probability tables (parameters), can be specified using observed data, existing hydrological models or expert opinion. Thanks to their inference algorithms, BN are able to rapidly propagate, through the graph, different sources of uncertainty in order to estimate their effect on the model output (e.g. riverflow). Several case studies are tested. The first case study is the Salat river basin, located in the south-west of France, where a BN is used to simulate the discharge at a given station from the streamflow observations at 3 hydrometric stations located upstream. The model showed good performances estimating the discharge at the outlet. Used in a reverse way, the model showed also satisfactory results when characterising the discharges at an upstream station by propagating back discharge observations of some downstream stations. The second case study is the Sagelva basin, located in Norway, where a BN is used to simulate the accumulation of snow water equivalent (SWE) given available weather data observations. The performances of the model are affected by the learning dataset used to train the BN parameters. In the absence of relevant observation data for learning, a methodology for learning the BN-parameters from deterministic models is proposed and tested. The resulted BN can be used to perform uncertainty analysis without any MC-simulations to be performed in real-time. From these case studies, it appears that BNs are a relevant decisionsupport tool for flood risk management.
153

Approche probabiliste dans la détermination des courbes de vulnérabilité des structures en génie civil / Probabilistic approach in determining the vulnerability curves of civil engineering structures

Mekki, Mohammed 07 April 2015 (has links)
Dans le contexte du calcul sismique basé sur la notion de performance, lesingénieurs se trouvent confrontés à une tâche difficile pour estimer la performance etévaluer les risques des systèmes sol-structure en interaction. Afin d’accomplir cette tâcheavec succès, toutes les sources d'incertitudes aléatoires et épistémiques doivent être prisesen compte au cours du processus de conception. Ainsi, des méthodes appropriées sontnécessaires pour l'étude de la propagation de l'incertitude des paramètres du systèmedécrivant la structure, le sol, et les charges appliquées aux réponses structurelles endéfinissant des états limites de performance. L’objectif de cette thèse est de contribuer àl’étude du comportement sismique des structures en interaction avec le sol et d’offrir denouveaux outils pour le traitement de problèmes pertinents, orientés vers la nouvellephilosophie de conception parasismique des structures : la conception basée sur laperformance (performance-based design). Cet axe de recherche structure ce travail dedoctorat. La problématique s’inscrit dans le cadre de proposition de modèles simplifiés afind’aborder un problème compliqué tel que l’interaction sol-structure (ISS). Lecomportement non linéaire de la structure est déterminé par une approche capacitive baséesur la performance sismique telle que la méthode N2 proposée par P. Fajfar. Dans saversion originale, cette méthode considère que la structure est encastrée à sa base,négligeant ainsi l’ISS. Il s'agit d'une extension de la méthode N2 et que nous appelleronsN2-ISS. A notre connaissance, il n'existe pas d'études qui ont intégré l'ISS dans ce type deformalisme. Pour examiner la validité et la fiabilité du modèle présenté, une analysecomparative a été faite entre l'approche que nous proposons et trois autres méthodes: 1) laméthode introduite dans le code BSSC 1997, 2) la méthode proposée par Avilès & Perez–Rocha (2003) ainsi que 3) la méthode dynamique temporelle non linéaire. Les résultatsobtenus ont montré que la réponse en déplacement de la structure était assez proche dansles quatre méthodes.Les courbes de fragilité sont établies en tenant compte des effets de l’ISS et desincertitudes associées au chargement (mouvement du sol), aux propriétés de la structure,du sol, et de la fondation (impédances, ...). L’incertitude épistémique est égalementconsidérée de manière indirecte suite à la comparaison entre deux procédures d'évaluationdes états d’endommagements (Méthode de Park & Ang et Méthode de RISK-UE). L'étudea abouti aussi à une caractérisation préliminaire du risque sismique dans une partie de laville d'Oran dont les caractéristiques géologiques et géotechniques étaient disponibles.Cette étude a permis la cartographie du dommage et d'étudier la la vulnérabilité sismiquedes bâtiments. / In the context of performance-based earthquake engineering (PBEE), a challengingtask for structural engineers is to provide performance and risk assessment for structures orsoil-structure interaction (SSI) systems. In order to fulfill this task successfully, all relevantsources of aleatory and epistemic uncertainties must be accounted for during the designprocess. Thus, proper methods are required for the study of uncertainty propagation frommodel parameters describing the structure, the soil, and the applied loads to structuralresponses by defining some performance limit states. The objective of this thesis is tocontribute to the study of the seismic behavior of structures interacting with soil andprovide new tools for the treatment of relevant issues facing the new philosophy of seismicdesign of structures: performance-based design. The objective of this thesis is to contributeto the study of the seismic behavior of structures interacting with soil and provide newtools for the treatment of relevant issues facing the new philosophy of seismic design ofstructures: (performance-based design). This research structure this doctoral work. Theissue is part of proposed simplified models to address a complicated problem such as soilstructureinteraction (SSI). The nonlinear behavior of the structure is determined by acapacitive approach based on the seismic performance as N2 method proposed by P.Fajfar. In its original version, this method considers that the structure is fixed at its base,thus neglecting the ISS. The new proposed method called N2-SSI is an extension of the N2method. To our knowledge, there are no studies that have joined the SSI ISS in this type offormalism. The proposed approach is validated and compared with time history analysis,Building Seismic Safety Council (BSSC) method (NEHRP, 2003), and a method proposedby Aviles and Perez-Rocha (2003). The results obtained showed that the responsedisplacement of the structure was fairly close in the four methods.The fragility curves are established taking into account the effects of the ISS anddifferent uncertainty sources: the load (input ground motion), the soil, the structure and theSSI (impedances, ...). Epistemic uncertainty was investigated through comparison betweentwo different approaches in assessing damage states (Park and Ang and Risk-UE). Thestudy also resulted in a preliminary characterization of the seismic risk in a part of the Orancity, where geological and geotechnical characteristics were available. This study allowedthe mapping of the damage and the study of the seismic vulnerability of buildings.
154

Aide à l'analyse fiabiliste d'une pile à combustible par la simulation / PEMFC multi-physical modelling and guidelines to evaluate the consequences of parameter uncertainty on the fuel cell performance

Noguer, Nicolas 07 July 2015 (has links)
Le fonctionnement de la pile à combustible (PAC) de type PEM (à membrane polymère) est encore soumis à de nombreuses incertitudes, aux natures différentes, qui affectent ses performances électriques, sa fiabilité et sa durée de vie. L'objectif général de cette thèse est de proposer une méthode d'aide à l'évaluation de la fiabilité des PAC par la simulation ; la fiabilité étant vue ici comme la garantie d’accéder à un niveau de performance électrique donné dans les différentes conditions d’usage envisagées pour la PAC. La démarche proposée s’appuie sur un couplage physico-fiabiliste où la complexité des phénomènes physiques présents dans la pile est prise en compte par une modélisation de connaissance, dynamique, symbolique et acausale, développée dans l’environnement Modelica - Dymola. La modélisation retenue, monodimensionnelle, non isotherme inclut une représentation diphasique des écoulements fluidiques pour mieux retranscrire la complexité des échanges d’eau dans le coeur de la pile PEM. La modélisation permet aussi d’intégrer des incertitudes sur certains de ses paramètres physiques et semi-empiriques (classés en trois catégories : opératoires, intrinsèques et semi-empiriques) puis d’entreprendre, par des tirages de Monte-Carlo, la modélisation probabiliste des conséquences des incertitudes injectées sur la performance d’une PAC. Il est ainsi possible, par la suite, d’estimer la fiabilité d’une PAC par le calcul de la probabilité que la performance électrique reste supérieure à un seuil minimal à définir en fonction de l’application. Une analyse physico-fiabiliste détaillée a été menée en introduisant à titre d’exemple une incertitude sur la valeur de la porosité de la couche de diffusion cathodique d’une PAC de type PEM (coefficients de variation retenus : 1%, 5% et 10%). L’étude des conséquences de cette incertitude sur la tension et l’impédance d’une PAC a été menée en réalisant un plan d’expériences numériques et en mettant en oeuvre différents outils d’analyse statistique : graphes des effets, analyses de la variance, graphes des coefficients de variation des distributions en entrée et sortie du modèle déterministe. Dans cet exemple d’analyse et dans les conditions d’usages considérées, le taux de fiabilité prévisionnel (probabilité pour que la cellule de pile fournisse un minimum de tension de 0.68V) a été estimé à 91% avec un coefficient de variation d’entrée à 10%. / The Proton Exchange Membrane Fuel Cell (PEMFC) operation is subject to inherent uncertainty in various material, design and control parameters, which leads to performance variability and impacts the cell reliability. Some inaccuracies in the building process of the fuel cell (in the realization of the cell components and also during the assembly of the complete fuel cell stack), some fluctuations in the controls of the operating parameters (e.g. cell and gas temperatures, gas pressures, flows and relative humidity rates) affect the electrical performance of the cell (i.e. cell voltage) as well as its reliability and durability. For a given application, the selections of the different materials used in the various components of the electrochemical cell, the choices in the cell design (geometrical characteristics / sizes of the cell components) correspond to tradeoffs between maximal electrical performances, minimal fuel consumption, high lifespan and reliability targets, and minimal costs.In this PhD thesis, a novel method is proposed to help evaluating the reliability of a PEMFC stack. The aim is to guarantee a target level of electrical performance that can be considered as sufficient to meet any application requirements. The approach is based on the close coupling between physical modeling and statistical analysis of reliability. The complexity of the physical phenomena involved in the fuel cell is taken into account through the development of a dynamical, symbolic, acausal modeling tool including physical and semi-empirical parameters as well. The proposed knowledge PEMFC model is one-dimensional, non-isothermal and it includes a two-phase fluidic flow representation (each reactant is considered as a mix of gases and liquid water) in order to better take into account the complexity of the water management in the cell. The modeling is implemented using the MODELICA language and the DYMOLA software; one of the advantages of this simulation tool is that it allows an effective connection between multi-physical modeling and statistical treatments. In this perspective, the modeling is done with the aim of having as much relevant physical parameters as possible (classified in our work as operating, intrinsic, and semi-empirical parameters). The different effects of these parameters on the PEMFC electrical behavior can be observed and the performance sensitivity can be determined by considering some statistical distributions of input parameters, which is a step towards reliability analysis.A detailed physical and reliability analysis is conducted by introducing (as an example) an uncertainty rate in the porosity value of the cathodic Gas Diffusion Layer (coefficients of variance equal to 1%, 5% and 10%). The study of the uncertainty consequences on the cell voltage and electrical impedance is done through a design of numerical experiments and with the use of various statistical analysis tools, namely: graphs of the average effects, statistical sensitivity analyses (ANOVAs), graphs displaying the coefficients of variances linked with the statistical distributions observed in the inputs and outputs of the deterministic model. In this example of analysis and in the considered cell operating conditions, the provisional reliability rate (probability that the cell voltage is higher than 0.68V) is estimated to 91% with an input coefficient of variance equal to 10%.
155

Commande sous contraintes et incertitudes des réseaux de transport / Control under constraints and uncertainties of transportation networks

Sleiman, Mohamad 12 December 2018 (has links)
Le transport a toujours été l'un des composants déterminants de la vie urbaine et de son développement économique. A partir de la seconde moitié du siècle dernier, l'amélioration du niveau de vie moyen et du taux d'équipement des ménages a permis au plus grand nombre d'accéder au déplacement par véhicule particulier. Nous avons donc assisté à une course entre la croissance du trafic routier et les progrès quantitatifs et qualitatifs de la voirie. Cette quantité d'actions génère des problèmes au niveau de la fluidité du trafic, d'où l'apparition de congestion.La congestion se produit aujourd'hui de façon quasi-quotidienne dans les réseaux routiers. Elle est source de perte de temps, augmentation de la consommation d'énergie, nuisance et détérioration de l'environnement. La solution aux problèmes de congestion routière ne passe pas toujours par l'augmentation de l'investissement dans les infrastructures de transport. En effet, l'offre de terrains est épuisée et le développement de l'infrastructure routière est coûteux. D'où, la tendance actuelle est plutôt à une meilleure utilisation des infrastructures existantes. En particulier, les feux de signalisation jouent un rôle important parmi les approches qui permettent d'éviter la congestion. En effet, la conception d'une meilleur commande des feux de signalisation a fait l'objet de plusieurs recherches afin d’améliorer la circulation au niveau du réseau à grande échelle.Dans ce mémoire, nous nous intéressons essentiellement à un travail en amont (action a priori) permettant d'éviter la congestion en forçant le nombre de véhicules à ne pas dépasser les capacités maximales des voies du réseau de transport. Après avoir décrire les réseaux de carrefours des feux, nous présentons d'une manière non exhaustive, les méthodes développées pour la gestion et la régulation des carrefours. Ensuite, nous proposons trois stratégies de contrôle qui traitent le problème de contrôle de manières différentes. La première fait appel à la théorie des systèmes dissipatifs, la deuxième consiste à stabiliser le système au sens de Lyapunov autour de sa situation nominale et la troisième le stabilise en temps fini (pendant les heures de pointe). Ces commandes proposées respectent les contraintes sur l'état et sur la commande et prennent en considération les incertitudes existantes dans le système. Finalement, l'existence des commandes proposées a été caractérisée par la faisabilité de certaines LMI en utilisant l'outil CVX sous MATLAB. De plus, les performances de chaque commande sont évaluées par des simulations. / Transport has always been one of the key components of urban life and its economic development. From the second half of the last century, the improvement in the average standard of living and the household equipment rate allowed the greatest number of people to access the journey by private vehicle. We therefore witnessed a race between the growth of road traffic and the quantitative and qualitative progress of roads. This quantity of actions generates problems with the fluidity of the traffic, hence the appearance of congestion.The congestion occurs today almost daily in road networks. It is source of waste of time, increase of the energy consumption, the nuisance and the deterioration of the environment. The solution to the problems of road congestion does not still pass by the increase of the investment in the infrastructures of transport. Indeed, the offer of grounds is exhausted and the development of the road infrastructure is expensive. Hence, the current trend is rather for a better use of the existing infrastructures. In particular, traffic lights play an important role in avoiding congestion. Indeed, the design of a better control of traffic lights has been the subject of several researches in order to improve the network circulation on a large scale.In this thesis, we are mainly interested in a work that prevents the congestion by forcing the number of vehicles to not exceed the lane capacities. After having described the network of intersections, we have realized a state of the art on the methods developed for the management and regulation of intersections. Next, we propose three control strategies that treat the control problem in different ways. The first one involves the theory of dissipative systems, the second one is to stabilize the system in the sense of Lyapunov around its nominal situation and the third one stabilizes it in finite time (during peak hours). These proposed controls respect the constraints on both state and control. In addition, they take into account the uncertainties in the system. Finally, the result of each strategy developed is presented by LMI in order to be solved by using the CVX tool under MATLAB. Besides, the performance of each control is evaluated by simulations.
156

Prévisibilité de précipitations intenses en Méditerranée : impact des conditions initiales et application aux inondations d'Alger de novembre 2001

Argence, Sébastien 14 November 2008 (has links) (PDF)
Malgré l'amélioration constante des modèles de prévision opérationnelle, certains événements demeurent difficilement prévisibles, même à courte échéance. Dans ces cas, la qualité de la prévision dépend fortement de celle des conditions initiales qui lui sont fournies. Dans ce contexte, il apparaît essentiel d'améliorer des méthodes existantes et d'en développer de nouvelles afin de prendre au mieux en compte les incertitudes liées aux conditions initiales, en particulier pour la prévision d'événements intenses tels que les fortes pluies qui touchent régulièrement le bassin Méditerranéen. L'impact d'incertitudes aux conditions initiales sur la prévision de la dite “supertempête” d'Alger (novembre 2001) a été examiné au travers de simulations haute résolution réalisées avec le modèle Méso-NH. Ce cas était caractérisé par la présence d'un profond thalweg d'altitude associé à une cyclogenèse intense. Il a été montré qu'une faible perturbation initiale de la profondeur du thalweg d'altitude (et de l'intensité de l'anomalie positive de tourbillon potentiel associée) pouvait se propager et s'intensifier durant la simulation, impactant alors la prévision du cyclone de surface. Une étude détaillée des conditions de développement de la convection profonde dans chaque expérience a montré que les perturbations de petites échelles observées sur les champs de précipitations étaient directement liées à la prévision du cyclone et donc aux perturbations initiales. Dans une seconde partie, l'influence de corrections de tourbillon potentiel sur la prévision du même cas d'étude a été examinée. A l'aide du modèle opérationnel Français ARPEGE, nous avons montré que la prévision démarrant de l'analyse opérationnelle du 9 novembre 2001 à 1200 UTC n'était pas capable de reproduire le cycle de vie et le creusement de la dépression de surface. Des corrections locales de tourbillon potentiel guidées par des observations satellites issues du canal vapeur d'eau de Meteosat 7 ont conduit à une amélioration significative de la prévision du minimum dépressionnaire et des précipitations associées. A l'aide de simulations très haute résolution (2 km) Méso-NH et de l'utilisation de l'approche dite modèle-vers-satellite, nous avons montré que l'impact des modifications initiales était particulièrement positif lors des périodes de forte activité convective précédent celles de précipitations intenses.
157

Contribution à l'amélioration de la prévision hydrométéorologique opérationnelle. Pour l'usage des probabilités dans la communication entre acteurs.

Houdant, Benoît January 2004 (has links) (PDF)
Les travaux présentés portent sur l'évaluation de la performance des centres opérationnels de prévision hydrométéorologique d'EDF. Une première approche consiste à calculer la valeur économique de l'information de prévision pour l'usager en charge de l'optimisation de la production hydroélectrique. La prévision probabiliste permet ensuite de formaliser une partie du savoir du prévisionniste qui n'était jusqu'alors fournie à l'usager que de manière qualitative et occasionnelle: les informations concernant les incertitudes de prévision, particulièrement en ce qui concerne la prévision d'événements rares et sévères (précipitations intenses, crues, tempêtes, etc.). Un protocole mis en place de manière semi-opérationnelle amène le prévisionniste à exprimer sa prévision courante dans la langue des probabilités: il traduit alors ses incertitudes de prévision en termes quantitatifs. Les prévisions probabilistes ainsi obtenues apportent une information plus riche et mieux adaptée aux enjeux de l'usager en charge de la sûreté des installations hydroélectriques. La prévision probabiliste permet également de révéler le comportement de l'expert confronté aux limites de son savoir. Nous analysons plusieurs défauts qui entachent le jugement du prévisionniste, tels que la "surconfiance" (sous-estimation par l'expert de ses propres incertitudes), le biais (surestimation ou sous-estimation systématique de certaines variables à prévoir), et l'aversion à l'incertitude (difficulté pour l'expert de parier sur ses propres incertitudes). Si la prévision probabiliste est encore peu usitée dans la plupart des centres de prévisions, elle s'avère pourtant applicable dans un contexte opérationnel. Nous donnons donc des préconisations pratiques pour dépasser les réticences des prévisionnistes et usagers à l'égard de ce nouveau mode de communication des incertitudes.
158

Développement et optimisation de techniques de mesure par spectrométrie gamma. Maîtrise et réduction des incertitudes associées

Leconte, Pierre 25 October 2006 (has links) (PDF)
Dans le cadre de l'amélioration et de la qualification des formulaires de calcul neutronique, ce travail de thèse consiste en la conception, l'optimisation et le développement de techniques de mesures par spectrométrie g de paramètres intégraux, dans les réacteurs EOLE et MINERVE. L'objectif est d'aboutir à des résultats de mesure maîtrisés et d'incertitude réduite. In fine, les progrès réalisés visent à progresser sur l'interprétation des écarts calcul / expérience et à améliorer la connaissance de données nucléaires de base et en particulier de sections efficaces intégrales de capture et de fission. Tout d'abord, il s'agissait de caractériser l'instrumentation utilisée par le passé afin d'identifier et de quantifier les erreurs commises sur les mesures de paramètres neutroniques. La thèse met en évidence l'existence d'un biais systématique allant jusqu'à 12% sur les mesures de recalage de taux de fission et jusqu'à 3% sur les mesures de laplacien géométrique axial, en raison d'une mauvaise prise en compte du phénomène de temps mort sur les anciennes chaînes de mesure (amplificateur 2026 et codeur / analyseur PCA3). Grâce à une étude comparative aboutissant à leur remplacement par des systèmes numériques DSP2060, ces biais systématiques ont été supprimés. La mise en place d'une méthodologie d'optimisation de ses réglages permet désormais un fonctionnement précis à mieux que 0.5% jusqu'à un taux de comptage de 1.5'105 s-1. Ce travail offre de nouvelles perspectives d'expériences qui n'auraient pu être réalisées auparavant avec un niveau d'incertitude suffisant. Ensuite, une analyse critique des méthodes de traitement des données brutes de mesure et de propagation des incertitudes a été menée. Des sources d'erreurs systématiques, qui n'étaient pas prises en compte par le passé, sont désormais corrigées. Elles concernent l'influence de la décroissance d'activité sur la correction du temps mort (environ 2%), le phénomène de coïncidences vraies (environ 5%) et les effets d'angle solide sur l'autoabsorption g (environ 8%). Par ailleurs, la mise en place de méthodes rigoureuses de propagation des incertitudes permet la réduction au moins d'un facteur 3 de l'incertitude sur la mesure de paramètres fondamentaux de la neutronique - recalage de taux de fission (environ 0.6%) et laplacien géométrique axial (environ 0.7%) - et au moins d'un facteur 2 sur la mesure du taux de conversion de l'uranium 238 (environ 1.5%). Ces progrès sont mis à profit pour la conception et la réalisation de mesures participant à la qualification de sections efficaces d'actinides (232Th, 236U, 237Np, 242Pu) et d'absorbants neutroniques (151Eu, 153Eu, 164Dy, 170Er, 180Hf). La comparaison des mesures de rapports cadmium et d'indices de capture, par rapport à des calculs déterministes APOLLO2 et probabilistes MCNP4C2 avec les bibliothèques JEF2.2 , ENDF/B-VI.8 ou JEFF3.1, met en évidence des biais systématiques atteignant jusqu'à 50% sur certaines sections de capture, avec une incertitude expérimentale meilleure que 2%. Enfin, des expériences dédiées à la qualification de données de décroissance ont été mises au point pour la toute première fois au LPE. Une erreur de 5% sur l'évaluation JEFF3.1 de la période radioactive du strontium 92 a été identifiée. Cette donnée nucléaire a été réévaluée par des expériences spécifiques, conduisant à une incertitude diminuée d'un facteur 2. Par ailleurs, des fluctuations des rendements de fission de la réaction 235U(n,f) ont été observées entre des spectres neutroniques thermique et épithermique, allant de -0.8% à +2%. L'étude aboutit à l'émission de recommandations sur les méthodes d'évaluation du rendement effectif de fission pour des réacteurs de type sous-modéré.
159

Planification des blocs opératoires avec prise en compte des aléas

Lamiri, Mehdi 04 October 2007 (has links) (PDF)
Le bloc opératoire constitue l'un des secteurs les plus coûteux et les plus importants dans un établissement hospitalier. Afin, d'utiliser de manière efficace et rationnelle les ressources (humaines et matérielles) disponibles tout en assurant une bonne qualité de service vis-à-vis des patients, la planification du bloc opératoire est devenue l'une des premières préoccupations des établissements hospitaliers. Le problème de planification du bloc opératoire consiste à déterminer pour un horizon de plusieurs jours, l'ensemble d'interventions qui seront réalisées dans chaque salle opératoire. Ce problème a été traité dans la littérature et plusieurs approches de planification ont été proposées. Toutefois, les approches existantes sont essentiellement basées sur des modèles déterministes qui font abstraction de toutes sortes d'aléas. Or, le bloc opératoire est sujet à nombreuses formes d'aléas qui concernent essentiellement la chirurgie d'urgence et les durées d'interventions. À ce titre, l'objectif de notre travail de recherche est de développer des modèles et méthodes pour la planification des activités chirurgicales dans le bloc opératoire tout en tenant compte des aléas importants. Dans le cadre de cette thèse, nous avons proposé des modèles stochastiques qui (i) capturent les éléments essentiels à considérer lors de la planification des activités chirurgicales, (ii) permettent de modéliser de manière explicite différentes formes d'aléas tels que les incertitudes relatives aux durées des interventions et à la chirurgie d'urgence, et (iii) peuvent être facilement étendus pour modéliser d'autres contraintes dues aux pratiques du terrain. Nous avons aussi développé plusieurs approches et méthodes d'optimisation complètes et complémentaires pour la planification stochastique du bloc opératoire. Moyennant des expérimentations numériques, nous avons évalué les performances de ces différentes approches et nous avons montré leurs efficacités. En particulier, nous avons montré que des gains considérables peuvent être réalisés moyennant une modélisation stochastique du problème de planification du bloc opératoire.
160

Méthode multiéchelle et réduction de modèle pour la propagation d'incertitudes localisées dans les modèles stochastiques

Safatly, Elias 02 October 2012 (has links) (PDF)
Dans de nombreux problèmes physiques, un modèle incertain peut être traduit par un ensemble d'équations aux dérivées partielles stochastiques. Nous nous intéressons ici à des problèmes présentant de nombreuses sources d'incertitudes localisées en espace. Dans le cadre des approches fonctionnelles pour la propagation d'incertitudes, ces problèmes présentent deux difficultés majeures. La première est que leurs solutions possèdent un caractère multi-échelle, ce qui nécessite des méthodes de réduction de modèle et des stratégies de calcul adaptées. La deuxième difficulté est associée à la représentation de fonctions de nombreux paramètres pour la prise en compte de nombreuses variabilités. Pour résoudre ces difficultés, nous proposons tout d'abord une méthode de décomposition de domaine multi-échelle qui exploite le caractère localisé des aléas. Un algorithme itératif est proposé, qui requiert une résolution alternée de problèmes globaux et de problèmes locaux, ces derniers étant définis sur des patchs contenant les variabilités localisées. Des méthodes d'approximation de tenseurs sont ensuite utilisées pour la gestion de la grande dimension paramétrique. La séparation multi-échelle améliore le conditionnement des problèmes à résoudre et la convergence des méthodes d'approximation de tenseurs qui est liée aux propriétés spectrales des fonctions à décomposer. Enfin, pour la prise en compte de variabilités géométriques localisées, des méthodes spécifiques basées sur les approches de domaines fictifs sont introduites.

Page generated in 0.0695 seconds