• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La gouvernance d'un système : vers une gestion dynamique des risques / The governance of a system : towards a dynamic management of risks

Bakkour, Darine 02 December 2013 (has links)
L'augmentation du nombre des sinistres à grande échelle d'origine climatique, technologique, sanitaire, et bien d'autres, nous interpelle sur le mode de gouvernance des systèmes concernés, sur les choix de couverture de ces risques et sur les mesures de prévention mises en place. La question qui a animé notre recherche est : dans quelle mesure la gouvernance d'un système favorise-t-elle la gestion des risques ? Notre analyse empirique s'appuie sur deux cas d'étude, qui se concentrent, sur la gouvernance d'un système face à des risques catastrophiques pour l'un, et des risques communs pour l'autre. D'une part, les risques majeurs sont connus comme étant très peu probables mais avec de possibles lourdes conséquences. La dynamique de la gouvernance adaptative, pour la gestion des risques majeurs d'un système, souligne la nécessité d'adopter une approche flexible (dynamique). Nous proposons ainsi un cadre d'évaluation de la capacité d'adaptation d'un système dans le domaine des risques majeurs. D'autre part, les risques communs affectent l'ensemble de la population. Face aux risques communs dont les conséquences s'étalent dans le futur, nous considérons que la gouvernance adaptative dans une démocratie délibérative se réfère au paradigme selon lequel la gouvernance permet aux décideurs de se projeter vers le long terme. Le dilemme consiste à prendre (à présent) des décisions (c.-à-d. des risques, au sens général du terme) dont les effets (ou les conséquences) ne se font sentir que dans le futur. La gouvernance d'un système doit favoriser la gestion des risques. Notre travail de recherche est structuré autour de trois parties (i.e. « Gouvernances et risques », « La gouvernance d'un système exposé à un risque catastrophique », et « La gouvernance d'un système exposé à un risque commun »), chacune composée de trois chapitres. L'objectif ultime de la gestion des risques, voire des incertitudes qui caractérisent nos sociétés contemporaines est une raison d'être légitime des modes dynamiques de gouvernance qui incitent les différents acteurs à travailler ensemble, de diverses manières, afin de relever les défis auxquels ils sont confrontés. / The increase in large-scale climate, technological, sanitary, and many other types of losses, challenges us on the governance of the concerned systems, the choices made to hedge these risks and implement prevention measures. The question which animated our research is : to what extent the governance of a system promotes a better risk management?Our empirical analysis is based on two case studies which focus on the governance of a system while facing catastrophic risks for first one, and on common risks for the other. On the one hand, catastrophic risks are known to be highly improbable but with possible serious consequences. The dynamic of the adaptive governance system facing catastrophic risks underlines the need for a (dynamic) flexible approach. We therefore suggest an assessment framework for the adaptive capacity of a system in the field of catastrophic risks. On the other hand, common risks affect the whole population. We consider that the adaptive governance in a deliberative democracy refers to the governance paradigm which addresses common risks whose consequences spread out into the future. Thus, it induces decision makers to look at the long run. The dilemma consists in taking (now) decisions (i.e. Risk, in the general sense of the word) whose effects (or consequences) are only felt in the future. The governance of a system shall promote risk management. Our research is structured into three parts (i.e. "Governance and risk", "Governance of a system exposed to a catastrophic risk" and "Governance of a system exposed to a common risk"), each composed of three chapters. The ultimate objective of the management of risks, or even uncertainties, which characterize our contemporary societies is a legitimate reason for having dynamic modes of governance that prompt different actors to work together in various ways, in order to meet challenges they face.
2

Data-intensive interactive workflows for visual analytics / Données en masse et workflows interactifs pour la visualisation analytique

Khemiri, Wael 12 December 2011 (has links)
L'expansion du World Wide Web et la multiplication des sources de données (capteurs, services Web, programmes scientifiques, outils d'analyse, etc.) ont conduit à la prolifération de données hétérogènes et complexes. La phase d'extraction de connaissance et de recherche de corrélation devient ainsi de plus en plus difficile.Typiquement, une telle analyse est effectuée en utilisant les outils logiciels qui combinent: des techniques de visualisation, permettant aux utilisateurs d'avoir une meilleure compréhension des données, et des programmes d'analyse qui effectuent des opérations d'analyses complexes et longues.La visualisation analytique (visual analytics) vise à combiner la visualisation des donnéesavec des tâches d'analyse et de fouille. Etant donnée la complexité et la volumétrie importante des données scientifiques (par exemple, les données associées à des processus biologiques ou physiques, données des réseaux sociaux, etc.), la visualisation analytique est appelée à jouer un rôle important dans la gestion des données scientifiques.La plupart des plateformes de visualisation analytique actuelles utilisent des mécanismes en mémoire centrale pour le stockage et le traitement des données, ce qui limite le volume de données traitées. En outre, l'intégration de nouveaux algorithmes dans le processus de traitement nécessite du code d'intégration ad-hoc. Enfin, les plate-formes de visualisation actuelles ne permettent pas de définir et de déployer des processus structurés, où les utilisateurs partagent les données et, éventuellement, les visualisations.Ce travail, à la confluence des domaines de la visualisation analytique interactive et des bases de données, apporte deux contributions. (i) Nous proposons une architecture générique pour déployer une plate-forme de visualisation analytique au-dessus d'un système de gestion de bases de données (SGBD). (ii) Nous montrons comment propager les changements des données dans le SGBD, au travers des processus et des visualisations qui en font partie. Notre approche permet à l'application de visualisation analytique de profiter du stockage robuste et du déploiement automatique de processus à partir d'une spécification déclarative, supportés par le SGBD.Notre approche a été implantée dans un prototype appelé EdiFlow, et validée à travers plusieurs applications. Elle pourrait aussi s'intégrer dans une plate-forme de workflow scientifique à usage intensif de données, afin d'en augmenter les fonctionnalités de visualisation. / The increasing amounts of electronic data of all forms, produced by humans (e.g. Web pages, structured content such as Wikipedia or the blogosphere etc.) and/or automatic tools (loggers, sensors, Web services, scientific programs or analysis tools etc.) leads to a situation of unprecedented potential for extracting new knowledge, finding new correlations, or simply making sense of the data.Visual analytics aims at combining interactive data visualization with data analysis tasks. Given the explosion in volume and complexity of scientific data, e.g., associated to biological or physical processes or social networks, visual analytics is called to play an important role in scientific data management.Most visual analytics platforms, however, are memory-based, and are therefore limited in the volume of data handled. Moreover, the integration of each new algorithm (e.g. for clustering) requires integrating it by hand into the platform. Finally, they lack the capability to define and deploy well-structured processes where users with different roles interact in a coordinated way sharing the same data and possibly the same visualizations.This work is at the convergence of three research areas: information visualization, database query processing and optimization, and workflow modeling. It provides two main contributions: (i) We propose a generic architecture for deploying a visual analytics platform on top of a database management system (DBMS) (ii) We show how to propagate data changes to the DBMS and visualizations, through the workflow process. Our approach has been implemented in a prototype called EdiFlow, and validated through several applications. It clearly demonstrates that visual analytics applications can benefit from robust storage and automatic process deployment provided by the DBMS while obtaining good performance and thus it provides scalability.Conversely, it could also be integrated into a data-intensive scientific workflow platform in order to increase its visualization features.
3

Gestion dynamique de la consommation de récepteurs RF : intégration de fronts-end RF ultra faible consommation / Dynamic management of the consumption of RF receivers : integration of ultra low power RF front-end

Ben Amor, Inès 17 May 2016 (has links)
L’émergence de l’internet des objets (IoT), les applications de types réseaux de capteurs et les nouveaux réseaux pour les objets nécessite le développement d’un nouvel écosystème. De nos jours, elle bouscule plusieurs secteurs de notre société. Cela, sollicite la conception des émetteurs-récepteurs radios fréquence à basse consommation étant donné que la réduction de la consommation d’énergie présente une contrainte importante dans le cas de ces applications afin d’obtenir une autonomie accrue. Dans ce contexte l’objet des travaux de thèse est de proposer des techniques de réduction de la consommation des récepteurs radio fréquence tout en cherchant à minimiser l’impact de ces techniques sur les performances des récepteurs réalisés. Dans l’optique de réaliser un démonstrateur composé d’un émetteur récepteur permettant une transmission vidéo, deux récepteurs UWB impulsionnel non cohérent à gestion dynamique d’énergie ont été réalisés en technologie HCMOS9 0.13µm de STMicroelectronics. Dans un premier temps, une étude des techniques de gestion dynamique d’alimentation sur les circuits analogiques radio fréquences a été proposée. Cette étude a été menée sur différents circuits qui semblent être le plus utilisés en conception de circuits analogiques à hautes fréquences. La technique proposée permet d’allumer et éteindre les circuits entre deux impulsions reçues afin de réduire leur consommation. L’application de cette technique nécessite par ailleurs une réduction du temps de latence causé par l’allumage et les extinctions des fonctions radio fréquence. Dans ce cas, un modèle permettant de minimiser l’impact de l’effet d’encapsulation a été proposé. / The emergence of the Internet of Things (IoT), sensors networks and new networks to objects requires the development of a new ecosystem. Nowadays, it upsets many sectors of our society. It solicits design of low power radio transceivers as reducing energy consumption presents a major constraint in the case of these applications in order to obtain greater autonomy. In this context, the purpose of the thesis is to provide techniques allowing reducing the power consumption of radio frequency receivers while seeking to minimize the impact of these technologies on the performance of the achieved receiver. In order to realize a demonstrator consists of a transmitter and receiver for video transmission, two UWB receivers with dynamic power management have been made in 0.13µm HCMOS9 technology from STMicroelectronics. First, a study of dynamic power management techniques on analog radio frequency circuits was proposed. This study was conducted on different circuits that seem to be the most used in design of analog circuits at high frequencies. The proposed technique allows to turn on and off the circuit between two pulses received to reduce their consumption. The application of this technique also requires a reduction of the latency caused by the ignition and the extinction radio frequency functions. In this case, a model to minimize the impact of the encapsulating effect has been proposed. Secondly, the first receiver was performed for 6-10GHz frequency band and implements dynamic power management using the technique of "Power Gating".
4

Utilisation d'une population multi-parentale et hautement recombinante de blé tendre pour l'étude de l'architecture génétique de la précocité de floraison / Studying flowering time genetics in wheat through the use of a multiparent advanced generation inter-cross population

Thépot, Stéphanie 13 March 2014 (has links)
Aujourd'hui, alors que le nombre de marqueurs génétiques disponibles augmente rapidement, de nouvelles populations doivent être créées pour exploiter au mieux cette quantité d'informations dans le but de mieux comprendre l'architecture génétique de caractères complexes. Les populations de type MAGIC ont été créées pour rassembler les avantages des populations bi-parentales et des panels d'associations, la bonne puissance de détection et une localisation précise. L'objectif de cette thèse était d'étudier l'intérêt de la population MAGIC INRA pour l'analyse de l'architecture génétique de la précocité de floraison. Cette population a été créée à partir de 60 parents brassés durant 12 générations de panmixie grâce à l'introduction d'un gène de stérilité mâle (ms1b). Cette étude a été réalisée sur 56 parents toujours disponibles en banque de graines et 380 lignées dérivées de la population après les 12 générations de recombinaison. Cette population a été génotypée avec la puce 9K iSelect, représentant environ 5 000 SNPs localisés sur tout le génome, additionnée de 14 marqueurs localisés dans des gènes candidats. Ce jeu de données moléculaires a été complété par des données fines de phénotypage de la précocité de floraison. Suite aux 12 générations de panmixie, le DL de cette population a été très réduit, à longue comme à moyenne distance (<10cM). Ce faible DL nous a amené à développer un algorithme basé uniquement sur le DL qui ordonne les marqueurs de manière à avoir un DL décroissant monotone avec la distance. L'algorithme ordonne globalement de la même manière que la carte génétique les marqueurs à longue distance mais à courte distance le DL est moins lié à la distance génétique. La différence réside sur l'équilibre entre les effets de la recombinaison et de la dérive génétique sur le DL. L'intérêt de la population MAGIC INRA pour détecter des QTLs a ensuite été étudié avec deux approches : une approche évolutionniste et une approche de génétique d'association. La première approche détecte les loci soumis à sélection par comparaison des fréquences alléliques de la population initiale (G0) et de la population évoluée (G12) grâce à une nouvelle méthode. La population initiale est composée des parents pondérés par une contribution estimée avec une nouvelle méthode bayésienne. 26 régions génomiques soumises à sélection ont été détectées. Une analyse de génétique d'association avec les marqueurs détectés sous sélection a montré que respectivement cinq et trois zones étaient associées à la précocité avec un semis d'automne et au caractère printemps/hiver. Une analyse phénotypique a effectivement mis en évidence la précocification de la date de floraison et une augmentation de la proportion de plantes de type printemps. Une analyse de génétique d'association a ensuite été réalisée sur les lignées SSD sur 12 caractères x environnements i.e. la date d'épiaison et le temps de remplissage du grain mesurés dans six environnements. Les tests d'association ont aussi été réalisés avec des variables synthétisant l'information présente dans plusieurs traits phénotypiques soit avec une ACP, soit avec un modèle écophysiologique. Au total, toutes ces analyses ont détecté six QTLs dont trois correspondants à des gènes majeurs. Parmi ces six QTLs, deux sont spécifiques des caractères mesurés avec un semis d'automne et deux avec ceux mesurés avec un semis de printemps. / Nowadays, with the dramatically increase of available molecular markers, there is a deep need for new populations allowing to exploit all of this information to better understand the genetic architecture of complex traits. MAGIC populations as they are built to bring together bi-parental populations and association panel advantages, provide such powerful detection and fine mapping capacities. The aim of these PhD was to study the MAGIC INRA population usefulness for the study of genetic architecture of earliness. This population is derived from 12 cycles of random crosses between 60 founders, turning wheat from selfing to outcrossing thanks to the use of a nuclear male sterility gene (ms1b, Probus donor). This population is composed of 56 parents still available and 380 SSD lines. Parents and SSD lines were genotyped using the 9K iSelect SNPs array, providing around 5 000 SNPs on the whole genome, as well as 14 addition markers located in candidate genes. They were also finely phenotyped for earliness traits. With the 12 panmictic generations, the population LD decreased strongly, especially at long and medium distance (<10cM). This allowed us to develop an algorithm mapping markers on the sole pairwise LD information, ordering markers in a way to have the LD decreasing along the distance. When considering long distances, overall the results were consistent with the order found on genetic maps while at short distance LD was poorly linked to genetic distance. These differences between long and short distances were linked to the balance between recombination and drift effects on LD. The usefulness of the MAGIC INRA population for QTL detection was analyzed with two approaches: an evolutionary approach and an association genetics approach. The first one detects loci under selection by identifying high shift in allelic frequency with a new method. The initial population was composed of founders weighted by a contribution estimated with a new Bayesian method. 26 genomic areas under selection were detected. An association genetics analysis with the markers detected as under selection showed respectively five and three genomic regions associated with earliness and growth habit. Actually the G12 population was found phenotypically earlier than the G0 and with more spring individuals. A broader association genetics analysis was performed on G12 population, studying 12 traits x environments i.e. heading date and grain filling time, both observed in six environmental conditions. Two additional integrated traits from either PCA or ecophysiological model were also analyzed. In all, these different analyses detected six QTLs, three of them corresponding to candidate genes. Among these six QTLs, two were specific to autumn sowing and two specific to spring sowing.
5

Gestion dynamique des connaissances de maintenance pour des environnements de production de haute technologie à fort mix produit / Dynamic management of maintenance knowledge for high technology production environments with high product mix

Ben Said, Anis 18 May 2016 (has links)
Le progrès constant des technologies électroniques, la courte durée de vie commerciale des produits, et la diversité croissante de la demande client font de l’industrie du semi-conducteur un environnement de production contraint par le changement continu des mix produits et des technologies. Dans un tel environnement, le succès dépend de la capacité à concevoir et à industrialiser de nouveaux produits rapidement tout en gardant un bon niveau de critères de coût, rendement et temps de cycle. Une haute disponibilité des capacités de production est assurée par des politiques de maintenance appropriées en termes de diagnostic, de supervision, de planification et des protocoles opératoires. Au démarrage de cette étude, l’approche AMDEC (analyse des modes de défaillance, leurs effets et de leur criticité) était seule mobilisée pour héberger les connaissances et le savoir-faire des experts. Néanmoins, la nature évolutive du contexte industriel requiert la mise à jour à des fréquences appropriées de ces connaissances pour adapter les procédures opérationnelles aux changements de comportements des équipements et des procédés. Cette thèse entend montrer que la mise à jour des connaissances peut être organisée en mettant en place une méthodologie opérationnelle basée sur les réseaux bayésiens et la méthode AMDEC. Dans cette approche, les connaissances et les savoir-faire existants sont tout d’abord capitalisés en termes des liens de cause à effet à l’aide de la méthode d’AMDEC pour prioriser les actions de maintenance et prévenir leurs conséquences sur l’équipement, le produit et la sécurité des personnels. Ces connaissances et savoir-faire sont ensuite utilisés pour concevoir des procédures opérationnelles standardisées permettant le partage des savoirs et savoir-faire des experts. Les liens causaux stockés dans l’AMDEC sont modélisés dans un réseau bayésien opérationnel (O-BN), afin de permettre l’évaluation d’efficacité des actions de maintenance et, par là même, la pertinence des connaissances existantes capitalisées. Dans un contexte incertain et très variable, l’exécution appropriée des procédures est mesurée à l’aide des indicateurs standards de performance de maintenance (MPM) et la précision des connaissances existantes en évaluant la précision de l’O-BN. Toute dérive de ces critères conduit à l'apprentissage d'un nouveau réseau bayésien non-supervisé (U-BN) pour découvrir de nouvelles relations causales à partir de données historiques. La différence structurelle entre O-BN et U-BN met en évidence de nouvelles connaissances potentielles qui sont validées par les experts afin de modifier l’AMDEC existante ainsi que les procédures de maintenance associées. La méthodologie proposée a été testée dans un des ateliers de production contraint par un haut mix de produits pour démontrer sa capacité à renouveler dynamiquement les connaissances d’experts et d'améliorer l'efficacité des actions de maintenance. Cette expérimentation a conduit à une diminution de 30% des reprises d’opérations de maintenance attestant une meilleure qualité des connaissances modélisées dans les outils fournis par cette thèse. / The constant progress in electronic technology, the short commercial life of products, and the increasing diversity of customer demand are making the semiconductor industry a production environment constrained by the continuous change of product mix and technologies. In such environment, success depends on the ability to develop and industrialize new products in required competitive time while keeping a good level of cost, yield and cycle time criteria. These criteria can be ensured by high and sustainable availability of production capacity which needs appropriate maintenance policies in terms of diagnosis, supervision, planning and operating protocols. At the start of this study, the FMEA approach (analysis of failure modes, effects and criticality) was only mobilized to capitalize the expert’s knowledge for maintenance policies management. However, the evolving nature of the industrial context requires knowledge updating at appropriate frequencies in order to adapt the operational procedures to equipment and processes behavior changes.This thesis aims to show that the knowledge update can be organized by setting up an operational methodology combine both Bayesian networks and FMEA method. In this approach, existing knowledge and know-how skills are initially capitalized in terms of cause to effect links using the FMEA method in order to prioritize maintenance actions and prevent their consequences on the equipment, the product quality and personal safety. This knowledge and expertise are then used to develop unified operating procedures for expert’s knowledge and know-how sharing. The causal links stored in the FMEA are modeled in an operational Bayesian network (BN-O), in order to enable the assessment of maintenance actions effectiveness and, hence, the relevance of existing capitalized knowledge. In an uncertain and highly variable environment, the proper execution of procedures is measured using standards maintenance performance measurement indicators (MPM). Otherwise, the accuracy of existing knowledge can be assessed as a function of the O-BN model accuracy. Any drift of these criteria leads to learning a new unsupervised Bayesian network (U-BN) to discover new causal relations from historical data. The structural difference between O-BN (built using experts judgments) and U-BN (learned from data) highlights potential new knowledge that need to be analyzed and validated by experts to modify the existing FMEA and update associated maintenance procedures.The proposed methodology has been tested in a production workshop constrained by high product mix to demonstrate its ability to dynamically renew expert knowledge and improve the efficiency of maintenance actions. This experiment led to 30% decrease in failure occurrence due to inappropriate maintenance actions. This is certifying a better quality of knowledge modeled in the tools provided by this thesis.
6

La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure / Dynamic rating curve assessment for hydrometric stations and computation of the associated uncertainties : Quality and station management indicators

Morlot, Thomas 01 October 2014 (has links)
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? ». / Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? ».

Page generated in 0.0907 seconds