• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 796
  • 252
  • 83
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1158
  • 252
  • 200
  • 161
  • 123
  • 93
  • 87
  • 83
  • 75
  • 70
  • 66
  • 65
  • 64
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Mesure d’impédance acoustique pour la caractérisation des cycles limites de moteurs thermoacoustiques / Acoustic impedance measurement to caracterize thermoacoustic engines limit cycles

Zorgnotti, Valentin 18 January 2019 (has links)
Ce manuscrit de doctorat propose une méthode expérimentale pour la caractérisation du cycle limite acoustique atteint par les auto-oscillations générées dans un moteur thermoacoustique.Pour cela, un capteur d'impédance fort niveau est développé dans le but de mesurer l'impédance d'entrée d'un noyau thermoacoustique en fonction de la puissance de chauffage fournie, de la fréquence et de l'amplitude du forçage acoustique.L'utilisation de ces mesures permet de prédire avec succès la génération spontanée d'auto-oscillations ainsi que leur saturation jusqu'à un régime établi, pour différentes charges attachées au noyau.Les mesures ainsi obtenues sont comparées à un modèle établi sur la base de la théorie linéaire de la thermoacoustique, couplé un modèle thermique simplifié, menant à une meilleure compréhension des processus physiques responsables de la saturation des oscillations acoustiques.La procédure expérimentale décrite dans ce manuscrit permet aussi de proposer une méthode d'optimisation du couplage entre la charge et le noyau de manière à maximiser l'efficacité potentielle de la conversion d'énergie thermoacoustique.Finalement, une méthode expérimentale est décrite et permet l'étude de la stabilité des cycles limites, ou plus généralement de l'évolution lente de l'amplitude des auto-oscillations acoustiques, dans le cas où le moteur thermoacoustique est configuré de manière à donner lieu à un régime de déclenchements et arrêts périodiques. / This manuscript deals with the experimental characterization of the acoustic limit cycle reached by self-sustained oscillations generated in thermoacoustic engines.A specially designed, high amplitude, acoustic impedance sensor was developed to perform measurements of the input impedance of a thermoacoustic core, as a function of the heating power supplied to the device, of the frequency, and of the amplitude of acoustic forcing.Those measurements can then be used to predict the spontaneous generation of acoustic oscillations and their saturation up to a certain steady-state.Those predictions were successful for various acoustic loads connected to the thermoacoustic core.Moreover, the measurements of acoustic impedance as a function of the amplitude of acoustic oscillations are compared to a model based on the linear thermoacoustic theory, and this comparaison provides insights into the processes controlling the saturation of acoustic oscillations.The experimental procedure described in this manuscript also leads to a pratical way of optimizing the coupling between the thermoacoustic core and the load, in the way that the potential efficiency of thermoacoustic energy conversion is maximized.Finally, an experimental method is described and allows to study the stability of limit cycles, i.e. the temporal evolution of the self-oscillation amplitude, in the case of a system that is able to give rise to a spontaneous periodic \textit{trigg and stop} behavior.
142

Utilisation de la blockchain pour les données médicales et le contrôle d'accès en e-Santé

Rezaei, Soroor 04 March 2022 (has links)
Les dossiers de santé électronique (DSE) sont critiques. Les données privées hautement sensibles dans les soins de santé doivent être fréquemment partagées entre les parties prenantes. La blockchain fournit un historique partagé, transparent et immuable de toutes les transactions pour établir des relations avec confiance, transparence et responsabilité. Il peut offrir une possibilité unique de développer un système de gestion et de partage des données de DSE fiables et sécurisé. La technologie de blockchain et les contrats intelligents pourraient aider dans des scénarios typiques liés à la gestion des données, à l'accès aux données et à l'interopérabilité des données. Une analyse complète et exploratoire du contrôle d'accès basé sur la blockchain a montré que la plupart des systèmes de contrôle actuels ne prennent pas en charge le contrôle d'accès à grain fin, ou se concentrent simplement sur d'autres facteurs, tels que la préservation de la vie privée et la sémantique des relations. Dans cet article, j'ai discuté de la nécessité d'un modèle de contrôle d'accès à granularité fine en ce qui concerne la confidentialité en utilisant des stratégies de contrôle d'accès basé sur les attributs, pour les dossiers de santé électroniques. La principale contribution est le cadrage des problèmes d'évolutivité, d'accessibilité et de confidentialité des données dans les soins de santé par une architecture intégrée basée sur la blockchain pour partager des données sécurisées entre les entités. / Health medical records (EHRs) are critical. Highly sensitive private data in healthcare require to be frequently shared among stakeholders. Blockchain provides a shared, transparent, and immutable history of all the transactions to build relationships with trust, transparency, and accountability. It can provide a unique possibility to develop a trustable and secure EHR data management and sharing system. Blockchain technology, and smart contracts, could help in typical scenarios correlated to data management, data access, and data interoperability. Comprehensive and exploratory analysis of blockchain-based access control has shown that most current control systems do not support fine-grained access control or just focus on other factors such as privacy preservation and relationship semantics. In this article, I discussed the need for a fine-grained access control model with respect to privacy by using Attribute-Based Access Control Policies for electronic health records. The main contribution is the framing of scalability, accessibility, and data privacy issues in healthcare by an integrated blockchain-based architecture to share secure data between entities.
143

Diagnostique optimal d'erreurs pour architecture de qubits à mesure faible et continue

Denhez, Gabrielle January 2011 (has links)
L'un des principaux obstacles pour construire un ordinateur quantique est la décohérence, laquelle limite grandement le temps alloué pour un calcul ainsi que la taille du système. Pour combattre la décohérence dans un système quantique, des protocoles de correction d'erreurs ont été proposés et semblent apporter une bonne solution à ce problème. Ces protocoles consistent à confiner l'information que contiennent les qubits dans un sous-espace nommé espace code. Après un certain temps d'évolution, on pose un diagnostic sur l'erreur qui s'est produite sur le système en effectuant des mesures indiquant s'il est toujours dans l'espace code où s'il a évolué vers un autre sous-espace. Pour que de tels protocoles soient efficaces, les mesures effectuées doivent en principe être rapides et projectives. Cependant, pour plusieurs architectures de qubits existantes, les mesures sont faibles et se font de façon continue. De plus, elles peuvent introduire elles-mêmes des erreurs dans le système. Ces caractéristiques de mesure rendent difficile le diagnostic de l'erreur tel qu'il est effectué traditionnellement. Aussi comme les mesures peuvent introduire des erreurs, il n'est pas certain que les protocoles de diagnostic d'erreur traditionnels soient utiles. Dans ce travail, on étudie l'utilité d'une mesure faible et continue dans un processus de correction d'erreurs. Cette étude s'est réalisée en deux volets. D'abord, on présente un protocole de correction d'erreur adapté aux architectures de qubits dont la mesure est faible et se fait de façon continue. On montre que ce protocole permet d'évaluer sous quelles conditions une mesure présentant ces caractéristiques peut aider à corriger des erreurs. Ensuite, on teste ce protocole de correction dans le cas particulier des qubits supraconducteurs. On établit sous quelles conditions la mesure sur ces qubits peut aider à diagnostiquer les erreurs et on étudie l'effet de différents paramètres expérimentaux dans ce contexte.
144

Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualité

Horé, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
145

Investigation des corrélations existant entre la perception de qualité audio et les réactions physiologiques d'un auditeur

Baudot, Matthias January 2010 (has links)
Les tests d'écoute subjectifs permettent d'évaluer la fiabilité de reproduction des systèmes de codage audio (codecs). Le projet présenté ici vise à évaluer la possibilité d'utiliser les réactions physiologiques (activité électrodermale, cardiaque, musculaire et cérébrale) à la place d'une note donnée par l'auditeur, afin de caractériser la performance d'un codec. Ceci permettrait d'avoir une méthode d'évaluation plus proche de la perception réelle de qualité audio du sujet. Des tests d'écoute mettant en oeuvre des dégradations audio bien connues en concours avec la mesure des réactions physiologiques ont été réalisés pour 4 auditeurs. L'analyse des résultats montre que certaines caractéristiques physiologiques permettent d'avoir une information fiable sur la qualité audio perçue, et ce de manière répétable pour près de 70% des signaux audio testés chez un sujet, et près de 60% des séquences audio testées chez tous les sujets. Ceci permet de postuler sur la faisabilité d'une telle méthode d'évaluation subjective des codecs audio.
146

Développement d'une technologie NMOS pour la conception de fonctions électroniques avancées

Bérubé, Benoit-Louis January 2010 (has links)
Ce mémoire de maîtrise présente le développement d'une technologie NMOS utilisée en enseignement au 1er et 2e cycle et comme preuve de concepts en recherche à l'Université de Sherbrooke. Le développement est basé sur la technologie JOPE à 6 masques utilisée en enseignement depuis les années 90. Le but de ce projet est d'optimiser ce procédé pour augmenter la reproductibilité des circuits et la densité d'intégration. Les problèmes de JOPE sont une forte résistivité de couche du polySi, une grande résistivité des contacts aluminium/polySi et aluminium/zone active ainsi qu'une grande fluctuation de la tension de seuil des transistors. Le procédé de fabrication JOPE a été optimisé pour créer JOPE2 afin d'améliorer les propriétés physiques des composantes et atteindre les objectifs fixés. Des circuits ont été fabriqués contenant des structures de caractérisations et des circuits numériques et analogiques conçus avec une règle de longueur de grille minimale de 2 [micro]m. La résistivité du polySi de JOPE2 est diminuée d'un facteur 5 en augmentant la température de déposition de la couche par LPCVD et en ajoutant une implantation ionique dédiée en plus de celle déjà prévue avec le procédé autoaligné pour les sources/drains. De cette façon, la résistivité des contacts aluminium à polySi est diminuée d'un facteur 10. La résistivité des contacts aluminium à zone active est diminuée d'un facteur 20 en augmentant la dose d'implantation ionique des sources/drains. JOPE2, tout comme JOPE, présente une variation importante de la tension de seuil causée par les charges d'interfaces Si/SiO[indice inférieur 2] et la variation de la résistivité du substrat utilisée (1 à 10 [oméga]-cm). Le faible rendement du procédé, évalué à 47 %, est causé par la faible stabilité des contacts, la grande densité de défauts et les limitations en ce qui a trait à l'alignement des masques. Pour faire suite à ce projet, un procédé NMOS à 3 [micro]m est recommandé afin d'augmenter le rendement en diminuant l'impact des défauts, améliorant la stabilité des contacts et en augmentant la qualité de l'alignement. De plus, pour augmenter la stabilité de la tension de seuil il est recommandé d'utiliser des tranches hautes résistivité. Le procédé recommandé devrait permettre de fabriquer des circuits complexes basés sur des transistors NMOS avec un rendement de 80 %.
147

Coalescent distingués échangeables et processus de Fleming-Viot généralisés avec immigration.

Foucart, Clément 11 September 2012 (has links) (PDF)
L'objet de la thèse est d'étudier des processus stochastiques coalescents modélisant la généalogie d'une population échangeable avec immigration. On représente la population par l'ensemble des entiers N = {1, 2, ..}. Imaginons que l'on échantillonne n individus dans la population aujourd'hui. On cherche à regrouper ces n individus selon leur ancêtre en remontant dans le temps. En raison de l'immigration, il se peut qu'à partir d'une certaine génération, certains individus n'aient pas d'ancêtre dans la population. Par convention, nous les regrouperons dans un bloc que nous distinguerons en ajoutant l'entier 0. On parle du bloc distingué. Les coalescents distingués échangeables sont des processus à valeurs dans l'espace des partitions de Z+ := {0, 1, 2, ...}. A chaque temps t est associée une partition distinguée échangeable, c'est-à-dire une partition dont la loi est invariante sous l'action des permu- tations laissant 0 en 0. La présence du bloc distingué implique de nouvelles coagulations, inexistantes dans les coalescents classiques. Nous déterminons un critère suffisant (et né- cessaire avec conditions) pour qu'un coalescent distingué descende de l'infini. C'est-à-dire qu'immédiatement après 0, le processus n'ait plus qu'un nombre fini de blocs. D'autre part, nous nous intéressons à une relation de dualité entre ces coalescents et des processus à valeurs dans les mesures de probabilité, appelés processus de Fleming-Viot généralisés avec immigration. Nous établissons des liens entre ces derniers et les processus de branchement continus avec immigration. Dans le cas d'un processus de branchement avec reproduction α-stable et immigration (α−1)-stable, nous montrons que le processus à valeurs mesures associé, renormalisé, est un processus de Fleming-Viot avec immigration changé de temps.
148

Approche méthodologique pour l'évaluation des performances et de la durabilité des systèmes de mesure répartie de déformation : application à un câble à fibre optique noyé dans le béton

Henault, Jean-Marie 18 November 2013 (has links) (PDF)
La surveillance des structures de génie civil, afin d'en estimer l'état de santé, est un enjeu majeur pour les maîtres d'ouvrages. Les systèmes de mesures réparties par fibre optique, composés d'un interrogateur connecté à une fibre optique intégrée dans un câble, permettent de mesurer le profil de déformation avec un pas de mesure centimétrique et une portée kilométrique. Ils sont donc adaptés aux structures présentant de grands linéaires ou de grandes surfaces. Mais, avant tout déploiement industriel, il est nécessaire d'en évaluer leurs performances. Du fait de la déformation par cisaillement du revêtement du câble, le profil de déformation mesuré le long de la fibre optique n'est pas strictement identique à celui du matériau environnant. Une méthode, basée sur la mise en œuvre d'essais et de simulations numériques, a été développée afin de caractériser les mécanismes de transfert d'effort du milieu hôte à la fibre optique à travers le revêtement du câble. Cette méthode a été appliquée pour déterminer la réponse mécanique d'un câble particulier noyé dans le béton. Les performances métrologiques d'un système de mesure donné ont été évaluées sur la base d'une analyse d'essais " du laboratoire au terrain ". Cette étude a permis de quantifier les différentes composantes d'incertitude et d'estimer les performances du système de mesure complet. Enfin, le câble, noyé dans le béton, ne peut être remplacé. La connaissance de l'impact du vieillissement sur la réponse mécanique du câble est donc primordiale. Une étude spécifique est menée dont le but est d'estimer la durabilité du câble face aux sollicitations chimique, thermique et mécanique correspondant à une application donnée
149

Le groupe de travail sur l'écoconditionnalité dans le secteur agricole au Québec une analyse des résultats dans le cadre d'une théorie de la gouvernance

Leblanc, Raymond January 2010 (has links)
La section 1 présente les changements de l'agriculture québécoise au cours des 50 dernières années. Les productions animales (porc, volaille) en croissance au Québec ont généré une augmentation des volumes des lisiers et des fumiers dans les régions à forte densité animale (ex. : Montérégie-Est, Beauce). Par ailleurs, les producteurs de grandes cultures ont utilisé des engrais minéraux (azote, phosphore, potassium) pour fertiliser notamment le maïs-grain dans le but d'atteindre de bons rendements. D'autres recherches ont également établi un lien entre l'augmentation des superficies de cultures à grand interligne (ex.: maïs-grain, soya) et des concentrations en phosphore dépassant le critère d'eutrophisation des rivières fixé à 0,03 mg/1 au Québec. La section 2 présente le matériel, la méthodologie et le cadre théorique de l'étude. Le Groupe de travail sur l'écoconditionnalité dans le secteur agricole du Québec est l'objet de l'étude. La théorie de gouvernance de Stoker (1998) sert de modèle d'analyse de l'objet, vu par l'entremise de documents de référence et des résultats de trois entrevues semi-dirigées. La section 3 présente le cadre réglementaire des activités agricoles pour résoudre progressivement la pollution diffuse d'origine agricole. Les missions, les rôles et les responsabilités des ministères et des organismes concernés par la problématique environnementale et l'écoconditionnalité seront présentés pour mieux comprendre les applications du concept d'écoconditionnalité. Les lois, les règlements et les politiques seront également analysés en lien avec les mesures d'écoconditionnalité et la gouvernance des territoires ruraux. La section 4 présente le concept, les mesures d'écoconditionnalité retenues au Québec, les programmes d'aide financière concernés et les moyens de contrôle des mesures d'écoconditionnalité. L'écoconditionnalité peut se traduire par des mesures et des approches différentes d'un modèle à l'autre. En effet, les mesures d'écoconditionnalité peuvent se limiter seulement à des pratiques agroenvironnementales, alors que d'autres modèles intègrent des mesures liées à des pratiques de bien-être des animaux, de santé animale, de biens et services environnementaux (ex. : implantation de haies brise-vent, couvertures végétales). La section 5 présente le concept de gouvernance, son évolution et certaines définitions proposées par les chercheurs en ce domaine. Nous analysons l'application du concept de gouvernance en lien avec le développement des territoires ruraux au Québec et la protection de l'environnement, plus spécifiquement la ressource eau. La section 6 présente la théorie de gouvernance de Stoker (1998) basée sur les cinq propositions. Chacune des propositions est expliquée et décrite dans le contexte de notre sujet. La section 7 présente l'analyse des documents de référence. Ils concernent des rapports, des études et des communiqués de presse produits par certains membres du Groupe de travail sur l'écoconditionnalité dans le secteur agricole au Québec. Cette section permet de comparer les recommandations de l'Union québécoise de la conservation de la nature, les recommandations du Groupe de travail sur l'écoconditionnalité et les mesures d'écoconditionnalité retenues par le gouvernement. La section 8 présente l'analyse des résultats en faisant ressortir les points convergents et divergents de chacune des propositions de la théorie de gouvernance de Stoker (1998). Nous proposons une piste de solutions pour bonifier le concept de gouvernance de l'écoconditionnalité et de la multifonctionnalité de l'agriculture visant à moduler les programmes d'aide financière en fonction de deux types d'agriculture. Finalement, à la section 9 nous terminons avec une conclusion sur les résultats observés en regard des cinq propositions de la théorie de gouvernance de Stoker (1998). Les résultats font ressortir quelques dilemmes relevés par la théorie de Stoker, à savoir qu'un acteur ou un regroupement d'acteurs a utilisé un pouvoir non partagé avec les autres parties prenantes pour influencer les décisions collectives sur les mesures d'écoconditionnalité."--Résumé abrégé par UMI.
150

Analyse des données de la mission Gravity Recovery And Climate Experiment (GRACE) sur des bassins versants choisis au Canada pour la caractérisation des eaux souterraines.

Youssouf Toure, Mohamed Amine January 2016 (has links)
Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de 𝑅=0,46 et 𝑅 = 0,50 entre ΔGW et ΔGWPiézo, respectivement pour le bassin du Bas-Mackenzie et celui du Saint-Laurent. Quant à la combinaison de tous les bassins, elle s’est caractérisée par une corrélation un peu plus faible (𝑅=0,44). Les valeurs des coefficients de corrélation calculée avec des données indépendantes de SWE venant des produits GlobSnow ; R = -0,68 sur le bassin du Bas-Mackenzie, R = -0,76 sur le bassin versant du Nord-du-Québec et du Labrador, R = -0,51 sur le bassin versant du Saint-Laurent et R = -0,52 pour les trois bassins réunis, montrent que ΔGW est très sensible à la quantité d’eau dans la neige, avec des spécificités pour chaque bassin versant étudié. / Abstract : Groundwater is an important component of the hydrological cycle. In Canada, more than 30% of the population relies on the main source of water for domestic use. These resources are under pressure factors such as salinization, contamination and exhaustion. Our knowledge on groundwater needs improvement because of climate variability and an increasing demand for these resources. The main objective of this project is to use the Gravity Recovery And Climate Experiment (GRACE) mission data (TWS) anomalies to locate, quantify and analyze the groundwater changes in Mackenzie St. Lawrence, North-Quebec and Labrador basins. Also this work aims to analyze the influence of accumulation cycles and snowmelt on groundwater level changes. For this groundwater changes estimation, it is necessary to estimate other water balance parameters. These parameters are estimated by using the outputs of the land surface model CLM of the Global Land Data Assimilation System (GLDAS) Data Products. The TWS data used are from March 2002 to august 2012. The results were evaluated by using the groundwater levels records from 1841 wells located in the free aquifers of different Canadian groundwater monitoring networks. The Specific yields values of the different types of aquifers from each well and the monthly changes in the water level in these wells were used to estimate changes in the in-situ groundwater anomalies. The correlation study between changes in groundwater anomalies estimated from the combination GRACE-GLDAS and those from in-situ data reveals significant matches with values of R = 0,46 and R = 0,50 between ΔGW and ΔGWPiézo respectively for the Lower-Mackenzie and the St. Lawrence basins. The combination of all the basins is characterized by a slightly weaker correlation (R = 0, 44).The correlation coefficients calculated with an independent data coming from SWE GlobSnow products are R = -0, 68 for Lower-Mackenzie River Basin, R = -0, 76 for Nord-du-Québec and Labrador basin, R = -0, 51 for St. Lawrence basin and R = -0, 52 for the three basins taken together. These correlations show that ΔGW is very sensitive to the snowmelt water amount, but with specificities for each studied basin.

Page generated in 0.0847 seconds