• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Fiabilisation de la quantification des éléments traces cationiques et anioniques par la technique d'échantillonnage DGT en milieu aquatique naturel / Increasing the reliability of the DGT technique for quantifying cationic and anionic trace elements in natural water

Devillers, Delphine 23 October 2017 (has links)
La technique d’échantillonnage passif DGT (« Diffusive Gradients in Thin Films ») possède de nombreux avantages (intégration des variations temporelles, abaissement des limites de quantification) qui font d’elle une méthode prometteuse pour une utilisation en réseaux de mesure pour quantifier les éléments traces dans les eaux naturelles. Cependant, il existe encore des zones d’ombre qui constituent des freins à son utilisation dans un contexte réglementaire. Ce travail a donc pour objectif d’identifier des biais potentiels et ainsi contribuer à fiabiliser la méthode. Cette étude montre que l’obtention d’un résultat avec une incertitude minimisée doit passer par la détermination expérimentale des facteurs d’élution ; cependant, l’utilisation d’une valeur standard de 0,8 pour le Cr(III) et de 0,85 pour Al(III), Cd(II), Co(II), Cu(II), Ni(II), Pb(II) et Zn(II) est proposée afin d’alléger les manipulations tout en conservant une incertitude raisonnable (<10%). L’étude de l’influence de l’encrassement des dispositifs DGT a montré que la sorption des cations Cd(II), Cu(II) et Pb(II) sur les filtres encrassés affectent respectivement peu, modérément et fortement leur accumulation dans les échantillonneurs et donc leur quantification. Des durées d’exposition de moins d’une semaine sont alors préconisées pour ces éléments. En revanche, l’encrassement a eu un impact négligeable sur le Ni(II) et sur les oxyanions As(V), Cr(VI), Sb(V) et Se(VI). Enfin, une méthode de quantification simultanée du Cr(III), essentiel à la vie, et du Cr(VI), toxique, a été développée en vue d’améliorer l’évaluation de la toxicité d’une eau. Un unique échantillonneur DGT fixe les deux formes tandis qu’elles sont ensuite sélectivement séparées par une étape d’élution. Cette méthode est robuste sur une large gamme de forces ioniques et de concentrations en sulfate mais sur une gamme de pH plus restreinte ne couvrant pas toutes les eaux naturelles (4 à 6). / The passive sampling DGT technique (Diffusive Gradients in Thin Films) has a lot of benefits (time-weighted average concentrations, low limits of quantification) and would therefore be a useful tool for monitoring studies to quantify trace elements in natural water. However, there are still some limitations and grey areas that put the brakes on the development of the method for regulatory applications. The aim of this work is to identify potential biases and contribute to increase the method reliability. This study shows that a minimized uncertainty on results can be obtained only if elution factors are experimentally determined; however, standard values of 0.8 for Cr(III) and 0.85 for Al(III), Cd(II), Co(II), Cu(II), Ni(II), Pb(II) and Zn(II) are suggested to reduce manipulations while keeping reasonable uncertainty (<10%). Studying the influence of fouling developed on DGT devices showed that the sorption of cations Cd(II), Cu(II) and Pb(II) had, respectively, a slight, moderate and strong impact on their accumulation in DGT samplers and therefore on their quantification. Samplers should then be deployed for less than one week. In contrast, fouling had a negligible impact on oxyanions As(V), Cr(VI), Sb(V) and Se(VI). Finally, a method was developed to simultaneously quantify both Cr oxidation states naturally occurring in natural waters, which are Cr(III), essential to life, and Cr(VI), toxic. Both forms are accumulated in a single DGT sampler before being selectively separated during an elution step. This method is robust for wide ranges of ionic strengths and sulfate concentrations but for a narrower range of pH (4 to 6).
62

Échantillonnage des gisements kimberlitiques à partir des microdiamants : Application à l'estimation des ressources récupérables / Sampling and estimation of diamond content in kimberlite based on microdiamonds

Ferreira, Johannes 12 December 2013 (has links)
La prédiction des ressources récupérables d'un gisement kimberlitique passe par l'estimation de la loi en taille des diamants commercialisables qu'il contient. Cette estimation repose traditionnellement sur les pierres de plus de 0,5mm, sans tenir compte des petites pierres qui sont de loin les plus abondantes mais sans valeur économique. Le problème soulevé par cette approche est la taille des échantillons: ils doivent être d'autant plus volumineux que les grandes pierres sont rares. Une façon de réduire la taille des échantillons est d'abaisser le seuil de récupération à des pierres non commercialisables. A cette fin, des techniques spécifiques ont été développées (dissolution de la kimberlite à l'acide) pour récupérer toutes les pierres de plus de 75 microns (0,0000018carat). Une procédure itérative a été aussi mise au point pour estimer la loi des pierres commercialisables à partir des petites pierres. La solution proposée repose sur une hypothèse de lognormalité de la taille des pierres, hypothèse pertinente dans la totalité des gisements primaires de diamants étudiés. L'estimation des paramètres lognormaux tient compte du nombre limité des données et de leur biais, dû à la perte inévitable des pierres les plus petites au cours du traitement des échantillons. Elle permet la prise en compte simultanée de différents jeux de données prélevés à différents seuils de récupération correspondant à differents modes d'échantillonnage. Cette procédure met en jeu une représentation graphique comparée des lois expérimentale et simulée, mettant ainsi en évidence la quantité de pierres perdues. / Predicting the recoverable resources in kimberlite requires estimating the size distribution of its valuable stones. This estimation is usually based on stones of size exceeding 0.5mm. More abundant but without commercial value, the other stones are not involved in the estimation process. Such an approach raises a sampling problem. The rarer the large stones, the more bulky the samples. One way to reduce the sample size is to reduce the processing cut-off to recover non-valuable stones. To do this, specific techniques (acid dissolution of kimberlite) have been set up to retrieve all stones above 75 microns (0.0000018 carat). An iterative procedure has also been designed to estimate the size distribution of the valuable stones starting from the small ones. The proposed solution rests on the assumption, found valid in all studied primary deposits, that stone sizes are lognormally distributed. The procedure to estimate the lognormal parameters takes into account the limited number of stones and their lack of representivity owing to an unavoidable loss of the smallest stones during the sample processing. It can be applied to a mixture of several populations of stones recovered at different cut-offs corresponding to different processing techniques. This procedure involves a graphical representation that compares the actual and simulated size distributions, and makes it possible to estimate the quantity of stones lost during the recovery process.
63

Une approche basée graphes pour la modélisation et le traitement de nuages de points massifs issus d’acquisitions de LiDARs terrestres / A graph-based for modeling and processing gigantic point clouds from terrestrial LiDARs acquisitions

Bletterer, Arnaud 10 December 2018 (has links)
Avec l'évolution des dispositifs d'acquisition 3D, les nuages de points sont maintenant devenus une représentation essentielle des scènes numérisées. Les systèmes récents sont capables de capturer plusieurs centaines de millions de points en une seule acquisition. Comme plusieurs acquisitions sont nécessaires pour capturer la géométrie de scènes de grande taille, un site historique par exemple, nous obtenons des nuages de points massifs, i.e., composés de plusieurs milliards de points. Dans cette thèse, nous nous intéressons à la structuration et à la manipulation de nuages de points issus d'acquisitions générées à partir de LiDARs terrestres. A partir de la structure de chaque acquisition, des graphes, représentant chacun la connectivité locale de la surface numérisée, sont construits. Les graphes créés sont ensuite liés entre eux afin d'obtenir une représentation globale de la surface capturée. Nous montrons que cette structure est particulièrement adaptée à la manipulation de la surface sous-jacente aux nuages de points massifs, même sur des ordinateurs ayant une mémoire limitée. Notamment, nous montrons que cette structure permet de traiter deux problèmes spécifiques à ce type de données. Un premier lié au ré-échantillonnage de nuages de points, en générant des distributions de bonne qualité en termes de bruit bleu grâce à un algorithme d'échantillonnage en disques de Poisson. Un autre lié à la construction de diagrammes de Voronoï centroïdaux, permettant l'amélioration de la qualité des distributions générées, ainsi que la reconstruction de maillages triangulaires. / With the evolution of 3D acquisition devices, point clouds have now become an essential representation of digitized scenes. Recent systems are able to capture several hundreds of millions of points in a single acquisition. As multiple acquisitions are necessary to capture the geometry of large-scale scenes, a historical site for example, we obtain massive point clouds, i.e., composed of billions of points. In this thesis, we are interested in the structuration and manipulation of point clouds from acquisitions generated by terrestrial LiDARs. From the structure of each acquisition, graphs, each representing the local connectivity of the digitized surface, are constructed. Created graphs are then linked together to obtain a global representation of the captured surface. We show that this structure is particularly adapted to the manipulation of the underlying surface of massive point clouds, even on computers with limited memory. Especially, we show that this structure allow to deal with two problems specific to that kind of data. A first one linked to the resampling of point clouds, by generating distributions of good quality in terms of blue noise thanks to a Poisson disk sampling algorithm. Another one connected to the construction of centroidal Voronoi tessellations, allowing to enhance the quality of generated distributions and to reconstruct triangular meshes.
64

Airline network revenue management : integrated optimization of hub location and capacity allocation / Gestion des revenus dans un réseau de compagnies aériennes : optimisation intégrée de la localisation de plateforme et du dimensionnement de capacité

Hou, Yanting 22 November 2019 (has links)
La gestion des revenus d’un réseau de compagnies aériennes, un des problèmes le plus critiques dans le secteur du transport aérien, a reçu une attention significative depuis ces dernière décennies. Cependant, de nombreuses problématiques doivent encore être traitées. Cette thèse étudie quatre nouveaux problèmes de la gestion des revenus dans un réseau de compagnies aériennes. D'abord, un problème de dimensionnement de capacité du réseau avec alliances concurrentes est étudié. Dans ce problème, les concurrences horizontales et verticales sont considérées et la demande est supposée déterministe. L’objectif est de maximiser les revenus globaux de l’alliance en déterminant la capacité (en nombre de places) dans les vols pour chaque classe tarifaire de chaque compagnie. Le problème est formulé en programmation linéaire en nombres entiers et résolu à l’aide du solveur CPLEX. Deuxièmement, un problème intégrant la localisation de p-hub médian et le dimensionnement des capacités (places) est étudié pour maximiser une combinaison du bénéfice moyen et du bénéfice au pire cas. Pour ce problème, un seul hub à capacité illimitée est considéré. De plus, les incertitudes sur la demande sont représentées à l’aide d’un ensemble fini des scénarios. Le problème est formulé en programmation stochastique à deux étapes. Ensuite, un algorithme génétique (GA) est proposé pour résoudre le problème pour chaque scénario. Les résultats numériques montrent que la méthode est meilleure que celles dans la littérature qui considèrent uniquement le bénéfice moyen. Le troisième problème étudié est une extension naturelle du deuxième dans lequel la capacité de hub à localiser est limitée et les perturbations qui peuvent impacter la capacité du hub, telles que des conditions météorologiques, sont prises en compte. Deux formulations du problème sont proposées : (1) une programmation stochastique à deux étapes sur la base des scénarios, et (2) optimisation hybride de programmation stochastique à deux étapes à l’aide de pondération. Ensuite, l’approximation moyenne par échantillonnage (SAA) et le GA sont appliqués pour résoudre le problème, respectivement. Les résultats numériques montrent que la SAA est plus performante que le GA. Le quatrième problème est aussi une extension du deuxième problème où la compagnie aérienne doit respecter le niveau d'émissions de CO2 imposé. Le problème est modélisé en programmation stochastique à deux étapes sur la base des scénarios. De plus, une méthode SAA est proposée pour sa résolution. / As one of critical problems in aviation industry, airline network revenue management has received significant attention in recent decades. However, many issues still need to be addressed. This thesis investigates four new airline network revenue management problems. Firstly, a network capacity allocation problem with competitive alliances is studied. In this problem, horizontal and vertical competitions and deterministic demand are considered. The aim is to maximize the global alliance revenue by determining the (seat) capacities in flights for each fare class of each airline. The problem is formulated into a mixed integer programming and is solved by a commercial solver CPLEX. Secondly, an integrated p-hub median location and (seat) capacity allocation problem is investigated to maximize the combined average-case and worst-case profits of an airline. For this problem, an uncapacitated hub is considered and uncertain demand is represented by a finite set of scenarios. The studied problem is formulated based on a two-stage stochastic programming framework. Then a Genetic Algorithm (GA) is proposed to solve the problem for each scenario. Computational results show that the proposed method outperforms those in the literature only considering average-case profit. The third studied problem is a generalization of the second one in which the capacity of hub to be located is limited and disruptions which can impact airline hub capacity, such as adverse weather, are considered. Two formulations of the problem are proposed based on : (1) a scenario-based two-stage stochastic programming, and (2) a weight-based hybrid two-stage stochastic programming-robust optimization framework. Then a Sample Average Approximation (SAA) method and a GA are applied to solve them, respectively. Computational results show that the SAA is more effective than the GA. The fourth problem is also an extension of the second one where an airline is subjected to a CO2 emission limit. The problem is modeled into a scenario-based two-stage stochastic programming. And a SAA method is proposed to solve it.
65

Création d'un outil d'évaluation des coûts des infrastructures municipales souterraines selon différents facteurs d'influences

Fréchette, Richard January 2018 (has links) (PDF)
No description available.
66

Comparaison de modèles de régression logistique utilisés pour l'analyse de données recueillies dans le cadre d'études de type cas-témoins appariés sur le déplacement animal

Beauregard, Benjamin January 2013 (has links)
L’étude de la sélection des ressources en fonction du déplacement des animaux est un sujet qui intéresse plusieurs chercheurs en écologie, qui cherchent à prédire comment les ressources disponibles influencent le déplacement des animaux dans un environnement hétérogène. Pour ce faire, une stratégie souvent utilisée consiste à comparer les caractéristiques des lieux visités à celles des lieux disponibles mais non visités à différents instants. Comme l’étendue du territoire des lieux disponibles est généralement imposant, un échantillonnage aléatoire des lieux non-visités devient pratiquement inévitable. Toutefois, une méthode d’échantillonnage non adéquate peut induire un biais dans les inférences. L’échantillonnage des lieux non-visités peut se faire selon une étude longitudinale cas-témoins appariée dont la variable réponse prend la valeur 1 dans le cas d’une ressource sélectionnée et la valeur 0 dans le cas contraire. Un modèle de régression logistique peut donc être ajusté aux données. L’objectif de ce mémoire est d’étudier les avantages et les limites de divers modèles de régression logistique, tout particulièrement le modèle à effets mixtes, dans le cadre d’études cas-témoins appariées. Une étude de simulation ainsi que l’analyse de données réelles nous a permis de comparer les inférences obtenues par le modèle mixte à ceux d’un modèle à effets fixes. Les conclusions observables indiquent que les modèles mixtes sont plus performants que les modèles fixes lorsque le type d’environnement est "homogène" et "très homogène" avec une faible force de sélection, mais rarement dans d’autres situations.
67

Asymptotic approaches in financial risk management / Approches asymptotiques en gestion des risques financiers

Genin, Adrien 21 September 2018 (has links)
Cette thèse se propose de traiter de trois problèmes de gestion des risques financiers en utilisant différentes approches asymptotiques. La première partie présente un algorithme Monte Carlo d’échantillonnage d’importance pour la valorisation d’options asiatiques dans des modèles exponentiels de Lévy. La mesure optimale d’échantillonnage d’importance est obtenue grâce à la théorie des grandes déviations. La seconde partie présente l’étude du comportement asymptotique de la somme de n variables aléatoires positives et dépendantes dont la distribution est un mélange log-normal ainsi que des applications en gestion des risque de portefeuille d’actifs. Enfin, la dernière partie, présente une application de la notion de variations régulières pour l’analyse du comportement des queues de distribution d’un vecteur aléatoire dont les composantes suivent des distributions à queues épaisses et dont la structure de dépendance est modélisée par une copule Gaussienne. Ces résultats sont ensuite appliqués au comportement asymptotique d’un portefeuille d’options dans le modèle de Black-Scholes / This thesis focuses on three problems from the area of financial risk management, using various asymptotic approaches. The first part presents an importance sampling algorithm for Monte Carlo pricing of exotic options in exponential Lévy models. The optimal importance sampling measure is computed using techniques from the theory of large deviations. The second part uses the Laplace method to study the tail behavior of the sum of n dependent positive random variables, following a log-normal mixture distribution, with applications to portfolio risk management. Finally, the last part employs the notion of multivariate regular variation to analyze the tail behavior of a random vector with heavy-tailed components, whose dependence structure is modeled by a Gaussian copula. As application, we consider the tail behavior of a portfolio of options in the Black-Scholes model
68

Proposition d'architectures radio logicielles fpga pour démoduler simultanément et intégralement les bandes radios commerciales, en vue d'une indexation audio / Proposal of fpga - based software radio architectures for simultaneously and fully demodulating the commercial radio bands, with the aim of doing audio indexing

Happi Tietche, Brunel 11 March 2014 (has links)
L'expansion de la radio et le développement de nouveaux standards enrichissent la diversité et la quantité de données contenues sur les ondes de radiodiffusion. Il devient alors judicieux de développer un moteur de recherches qui aurait la capacité de rendre toutes ces données accessibles comme le font les moteurs de recherche sur internet à l'image de Google. Les possibilités offertes par un tel moteur s'il existe sont nombreuses. Ainsi, le projet SurfOnHertz, qui a été lancé en 2010 et s'est terminé en 2013, avait pour but de mettre au point un navigateur qui serait capable d'indexer les flux audios de toutes les stations radios. Cette indexation se traduirait, entre autres, par de la détection de mots clés dans les flux audios, la détection de publicités, la classification de genres musicaux. Le navigateur une fois mis au point deviendrait le premier moteur de recherches de genre à traiter les contenus radiodiffusés. Relever un tel challenge nécessite d'avoir un dispositif pour capter toutes les stations en cours de diffusion dans la zone géographique concernée, les démoduler et transmettre les contenus audios à un moteur d'indexation. Ainsi, les travaux de cette thèse visent à proposer des architectures numériques portées sur une plateforme SDR pour extraire, démoduler, et mettre à disposition le contenu audio de chacune des stations diffusées dans la zone géographique du récepteur. Vu le grand nombre de standards radio existants aujourd'hui, la thèse porte principalement les standards FM et DRM30. Cependant les méthodologies proposées sont extensibles à d'autres standards.C'est à base d'un FPGA que la majeure partie des travaux a été menée. Le choix de ce type de comcomposant est justifié de par les grandes possibilités qu’il offre en termes de parallélisme de traitements, de maitrise de ressources disponibles, et d’embarquabilité. Le développement des algorithmes a été fait dans un souci de minimisation de la quantité de blocs de calculs utilisés. D’ailleurs, bon nombre d’implémentations ont été réalisées sur un Stratix II, technologie aux ressources limitées par rapport aux FPGAs d’aujourd’hui disponibles sur le marché. Cela atteste la viabilité des algorithmes présentés. Les algorithmes proposés opèrent ainsi l’extraction simultanée de tous les canaux radios lorsque les stations ne peuvent occuper que des emplacements uniformément espacés comme la FM en Europe occidentale, et aussi, pour des standards dont la répartition des stations dans le spectre semble plutôt aléatoire comme le DRM30. Une autre partie des discussions porte sur le moyen de les démoduler simultanément. / The expansion of the radio and the development of new standards enrich the diversity and the amount of data carried by the broadcast radio waves. It becomes wise to develop a search engine that has the capacity to make these accessible as do the search engines on the internet like Google. Such an engine can offer many possibilities. In that vein, the SurfOnHertz project, which was launched in 2010 and ended in 2013, aimed to develop a browser that is capable of indexing audio streams of all radio stations. This indexing would result, among others, in the detection of keywords in the audio streams, the detection of commercials, the classification of musical genres. The browser once developed would become the first search engine of its kind to address the broadcast content. Taking up such a challenge requires to have a device to capture all the stations being broadcasted in the geographical area concerned, demodulate them and transmit the audio contents to the indexing engine. Thus, the work of this thesis aim to provide digital architectures carried on a SDR platform for extracting, demodulating, and making available the audio content of each broadcast stations in the geographic area of the receiver. Before the large number of radio standards which exist today, the thesis focuses FM and DRM30 standards. However the proposed methodologies are extensible to other standards. The bulk of the work is FPGA-based. The choice of this type of component is justified by the great opportunities it offers in terms of parallelism of treatments, mastery of available resources, and embeddability. The development of algorithms was done for the sake of minimizing the amount of the used calculations blocks. Moreover, many implementations have been performed on a Stratix II technology which has limited resources compared to those of the FPGAs available today on the market. This attests to the viability of the presented algorithms. The proposed algorithms thus operate simultaneous extraction of all radio channels when the stations can only occupy uniformly spaced locations like FM in Western Europe, and also for standards of which the distribution of stations in the spectrum seems rather random as the DRM30. Another part of the discussion focuses on the means of simultaneously demodulating it.
69

Modélisation et commande de l'anesthésie en milieu clinique / On the modelling and control of anesthsia in clinical settings

Zabi, Saïd 01 December 2016 (has links)
Cette thèse traite de la modélisation et la commande de l'anesthésie sous un angle théorique et formel. L'anesthésie générale d'un patient au cours d'une opération consiste pour le médecin anesthésiste à contrôler l'état d'endormissement et d'analgésie du patient (éviter un sur ou un sous dosage) en ajustant la perfusion des substances analgésiques et/ou hypnotiques en fonction d'indicateurs cliniques tels que le BIS pour l'hypnose ou la variation de la surface pupillaire pour l'analgésie. Ce manuscrit se compose de trois parties. La première définit les concepts et mots clés utilisés dans le domaine de l'anesthésie, présente une introduction à la modélisation et la commande de l'anesthésie d'un point de vue de l'ingénierie des systèmes, rappelle les caractéristiques et contraintes de la commande des systèmes d'anesthésie et établit un état de l'art des travaux de la littérature. La seconde partie concerne la commande de l'hypnose qui est effectuée en deux phases : induction puis maintenance. Dans la première phase (induction) une commande en temps minimal est calculée pour ramener le patient de son état de réveil vers le voisinage d'un point cible correspondant à un objectif du BIS. Une fois l'état du patient proche de l'état cible, la deuxième phase (maintenance) consiste à garantir que l'état du patient reste dans un ensemble où le BIS est garanti entre 40 et 60 et, éventuellement, suit des références constantes. Dans cette phase, la synthèse des lois de commandes (de type retour d'état et retour de sortie dynamique) prend en compte la saturation de la commande, la positivité du système, la variabilité des patients, ... Dans la troisième partie, on commence par la proposition d'un nouvel indicateur pour la profondeur de l'analgésie et d'une modélisation de la variation de la surface pupillaire. Compte tenu de la quantification de la mesure de cet indicateur, on propose la synthèse d'un retour de sortie dynamique. Ensuite, on fait une analyse de stabilité prenant en compte l'échantillonnage de la mesure. / This thesis deals with the modelling and control of anesthesia from a theoretical and formal angle. The general anesthesia of a patient during an operation consists for the anesthesiologist in checking the hypnotic and analgesic state of the patient (avoid over or under dosage) by adjusting the perfusion of analgesic and/or hypnotics substances based on clinical indicators such as BIS for hypnosis or pupillary surface variation for analgesia. This manuscript consists of three parts. The first defines the concepts and key words used in the field of anesthesia, presents an introduction to the modelling and control of anesthesia from the viewpoint of a control systems engineering, recalls the characteristics and constraints of control of the anesthesia systems and establishes a state of the art of works of the literature. The second part concerns the control of hypnosis which is performed in two phases : induction and maintenance. In the first phase (induction), a minimal time control is calculated to bring the patient from his awakening state to the neighbourhood of a target equilibrium corresponding to an objective of the BIS. Once the patient state is close to the target state, the second phase (maintenance) consists in ensuring that the patient state remains in an invariant set where the BIS is guaranteed between 40 and 60 and possibly follows constant references . In this phase, the synthesis of the control laws (state feedback and dynamic output feedback) takes into account the saturation of the control, the positivity of the system, the variability of the patients, ... In the third part, we begin by proposing a novel indicator for the depth of analgesia and modelling the variation of the pupillary surface. Taking into account the quantification of the measures of this indicator, we propose the synthesis of a dynamic output feedback control. Then, a stability analysis is carried out taking into account the sampling of the measures.
70

Comparaison de différentes méthodes d'estimation de la charge pour les sédiments et l'azote à l'exutoire d'un petit bassin versant

Zamyadi, Arash 11 April 2018 (has links)
La charge en nutriments à l'exutoire d'un bassin versant est un élément-clé pour la gestion de la qualité de l'eau. Toutefois, à cause du peu de mesures de concentration, un estimé précis de la charge n'est pas possible. Cette étude a été effectuée pour déterminer la qualité d'estimation de la charge pour une combinaison de six fréquences d'échantillonnage (jour à mois), deux schémas (fixe et aléatoire) et sept méthodes de calcul (moyenne, rapport d'estimation, interpolation) pour les sédiments et trois composantes de l'azote pour un bassin versant du Québec. Des valeurs horaires de débit, azote total, nitrate, ammonium et sédiment ont été générées pour une période de deux ans avec le programme HSPF calibré pour ce bassin versant de 5.3 km2 . Il a été assumé que les estimés de charge basés sur l'accumulation massique des valeurs horaires représentent les valeurs réelles auxquelles les valeurs estimées par les autres méthodes peuvent être comparées en utilisant le biais, l'écart type et la racine carrée de l'erreur moyenne au carré (RMSE). Pour tous les paramètres de qualité de l'eau, RMSE augmente avec la diminution de la fréquence d'échantillonnage. L'échantillonnage fixe résulte toujours en un RMSE plus faible que pour l'échantillonnage aléatoire; ce qui peut être attribué à l'autocorrellation temporelle. L'autocorrellogramme des sédiments en suspension montre une périodicité de 24 heures, expliquée par la fonte nivale printanière et par les précipitations plus fréquentes durant la soirée et la nuit. Les évaluations de la charge ont presque toujours résulté en une sous-estimation, probablement dû aux crues de courte durée caractérisant ce bassin versant. Des sept méthodes de calcul étudiées, l'interpolation linéaire a systématiquement donné des RMSE plus faibles. Toutefois, les méthodes du rapport d'estimation (incluant la méthode de Beale) n'ont pas bien performé, avec la cinquième et sixième place. / The knowledge of nutrient mass load at the outlet of watersheds is a key tool in water quality management projects. However, because of the lack of frequent concentration measurements, a precise estimation of mass load is not possible. This study was conducted to determine the quality of mass load estimation for a combination of six sampling frequencies (daily to monthly), two sampling schemes (fixed and random), and seven calculation methods (averaging, ratio estimator, and interpolation) for sediment and three nitrogen components at the outlet of an agricultural watershed in the province of Québec. Hourly values of flow, total nitrogen, nitrate, ammonium and sediment were generated for a two-year period by the HSPF model calibrated for the 5.3 km2 watershed. Load estimates based on the mass accumulation of hourly values were assumed to represent the true loads to which loads estimated by other methods were compared using bias, standard deviation, and root mean square error (RMSE). For ail water quality parameters, the RMSE increased with the decrease of sampling frequency. Fixed sampling schemes always resulted in RMSE values lower than those of random schemes. This better performance of the fixed sampling scheme is attributed to the autocorrélation in time for ail water quality parameters. The sediment autocorrellogram showed a 24-hour periodicity that is explained by snowmelt and more frequent evening and night rainfalls. Ail load evaluations generally resulted in an underestimation of the true load, most likely due to the flashy hydrological response of the small watershed studied. Of the seven load calculation methods studied, linear interpolation, which is used to obtain an estimate of concentration for each available hourly flow value, systematically yielded the lowest RMSE value. However, ratio estimator methods did not fare well, ranking only 5 and 6 out of the 7 methods tested.

Page generated in 0.0797 seconds