291 |
Identification de biomarqueurs du syndrome métabolique par une approche métabolomique chez l'humainBoulet, Marie Michèle 20 April 2018 (has links)
Les profils métabolomiques d’acides aminés (AA) sanguins d’individus obèses présentent des niveaux élevés d’acides aminés à chaîne ramifiée (AACR) possiblement en lien avec une altération des enzymes de leur catabolisme dans le tissu adipeux. Nous avons étudié les profils d’AA sanguins associés à l’obésité viscérale et aux facteurs de risque cardiométabolique ainsi que l’expression des gènes et l’abondance protéique des enzymes du catabolisme des AACR dans les tissus adipeux d’un échantillon de femmes ayant divers degrés d’adiposité. Nous avons démontré que les femmes obèses présentaient des niveaux d’AACR, de glutamate et de tyrosine augmentés. De plus, les taux circulants d’AACR étaient associés positivement aux marqueurs d’homéostasie du glucose et d’adiposité totale et sous-cutanée tandis que le glutamate et l’acylcarnitine C3 étaient associés positivement à l’aire de tissu adipeux viscéral et aux niveaux de triglycérides sanguins. L’expression et l’abondance protéique des enzymes du catabolisme des AACR étaient abaissées dans le tissu adipeux omental des femmes obèses. Les résultats de cette étude suggèrent que les concentrations sanguines d’AACR, de tyrosine et de glutamate sont plus élevées chez les individus obèses. Cette élévation des taux plasmatiques pourrait être associée à une diminution de l’expression et de l’abondance protéique des enzymes responsables du catabolisme des AACR, principalement observée dans les tissus adipeux omentaux des individus obèses. / Metabolomic profiling of obese individuals revealed high blood levels of branched-chain amino acids (BCAA) possibly linked to altered adipose tissue BCAA catabolism. We examined plasmatic AA profiling linked with visceral obesity and cardiometabolic risk factors as well as gene expression and protein abundance of BCAA-catabolizing enzymes in adipose tissue of lean-to-obese women. We showed that obese women had significantly higher circulating BCAA, glutamate and tyrosine levels. Moreover, circulating BCAA levels were positively related to glucose homeostasis variables in addition to total and subcutaneous adiposity markers while glutamate and C3 acylcarnitine levels were positively associated with visceral adipose tissue area and triglycerides. Obese women had lower expression and protein levels of BCAA-catabolizing enzymes in visceral adipose tissue specifically. The results of this study suggest that plasma concentrations of BCAA, tyrosine and glutamate are elevated in obese individuals. This could be associated with a reduction in expression and protein abundance of BCAA-catabolizing enzymes mainly observed in omental adipose tissue of obese individuals.
|
292 |
Jeux de poursuite policier-voleur sur un graphe : le cas du voleur rapideMarcoux, Héli 20 April 2018 (has links)
Les problèmes de recherche sur un graphe peuvent être exprimés sous la forme d’un jeu où un ensemble de chercheurs tentent de capturer un ensemble de fugitifs. Lorsqu’un tel jeu est joué en alternance par les deux ensembles de joueurs, nous parlons alors de jeux des policiers et des voleurs (« Cops and Robbers games ») ou plus simplement de jeux policiers-voleurs. Nowakowski et Winkler [28], et indépendamment Quilliot [45], ont introduit la première version des jeux policiers-voleurs dans laquelle un seul policier tente de capturer un seul voleur, les deux se déplaçant à tour de rôle vers des sommets adjacents de leurs positions courantes. Ils ont notamment proposé une jolie caractérisation des graphes gagnants pour le policier qui est basée sur l’existence d’un démantèlement particulier des sommets du graphe ; un démantèlement consistant à retirer un à un les sommets du graphe suivant une certaine règle. Cette caractérisation par démantèlement est par ailleurs intéressante puisqu’elle donne directement un algorithme polynomial de type diminuer pour régner pour résoudre le problème du policier et du voleur. Dans ce mémoire, nous proposons une nouvelle version d’un jeu policier-voleur dans laquelle le voleur se déplace arbitrairement vite dans le graphe et dans laquelle le policier possède une zone de surveillance qui limite le voleur dans ses déplacements. Nous caractérisons les graphes gagnants pour le policier dans ce nouveau jeu en utilisant un concept de démantèlement d’un graphe, similaire à celui de Nowakowski et Winkler [28], Quilliot [45], mais adapté aux conditions de notre nouveau jeu. Nous devons notamment généraliser la définition d’un graphe classique à celle d’un graphe clandestin, qui possède un ensemble de sommets clairs et un ensemble de sommets sombres, afin d’obtenir notre caractérisation par démantèlement. Nous donnons par ailleurs un algorithme qui permet de bâtir une stratégie monotone gagnante pour le policier en nous assurant que le policier sécurise de plus en plus de sommets à chaque tour. / Graph searching problems can be expressed as a game where a group of searchers is trying to capture a group of fugitives on a graph. When players move alternately in such a game, we are then referring to games of Cops and Robbers. Nowakowski and Winkler [28], and independently Quilliot [45], introduced the very first version of cops and robbers games in which a single cop tries to capture a single robber, both players moving alternately from their current positions to neighboring vertices. They notably proposed a very nice characterization of graphs that are winning for the cop, which is based on a particular dismantling scheme of the graph’s vertices; a dismantling scheme consisting in removing one by one each vertex of the graph by following a given rule. This dismantling-like characterization is furthermore interesting since it directly yields a divide-and-conquer algorithm that is polynomial, to solve the cop and robber problem. In this master thesis, we propose a new version of cops and robbers games in which the robber is able to move arbitrarily fast in the graph and in which the cop has a watching area that limits the robber’s moving capabilities. We characterize the cop-winning graphs for this new game by using some dismantling scheme similar to the one given by Nowakowski and Winkler [28], Quilliot [45], but that better fits our new game’s conditions. To obtain this dismantling-like characterization, we particularly need to generalize the definition of a classical graph to an undergrounded graph, whose vertices are split in a set of light vertices and a set of dark vertices. We also give an algorithm that provides a monotonous cop-winning strategy by making sure the cop is securing more and more vertices at each turn.
|
293 |
Applications of frequency combs in remote sensingBoudreau, Sylvain 20 April 2018 (has links)
Cette thèse a pour objectif l’exploration des applications potentielles des peignes de fréquences en télédétection. Pour ce faire, trois configurations expérimentales sont étudiées. Pour chacune des configurations, une analyse de divers aspects de leur fonctionnement est faite et les avantages et les inconvénients qui y sont propres sont discutés. Des montages expérimentaux basés sur ces configurations ont été fabriqués en laboratoire. Des mesures expérimentales viennent démontrer les capacités de détection des différentes techniques. La première configuration étudiée concerne l’échantillonnage passif d’une source optique externe. Cette technique permet d’évaluer le spectre de la source d’intérêt en la combinant interférométriquement avec les impulsions d’une paire de peignes de fréquences. Une étude probabiliste de la technique est effectuée afin d’en évaluer les limites de performance. Des mesures de sources cohérentes et incohérentes à haute résolution spectrale sont présentées. La deuxième technique étudiée exploite la configuration dite incohérente permettant de faire la caractérisation active d’une cible. Cette technique rend possible la mesure hyperspectrale résolue en distance d’une scène observée. Un montage expérimental de lidar hyperspectral a été conçu et fabriqué en laboratoire dans le but de faire des mesures extérieures de cibles à une distance allant jusqu’à 175 m. Les capacités de détection de plusieurs caractéristiques de cibles sont démontrées pour des cibles dures et distribuées, sous forme de nuages d’aérosols. Des mesures de raies d’absorption moléculaire, ainsi que d’épaisseur d’échantillons transparents et translucides, sont présentées. La troisième configuration étudiée, dite cohérente, permet de faire de la mesure active d’une cible en utilisant un des trains d’impulsions comme oscillateur local. L’utilisation d’un oscillateur local ouvre la porte à des mesures de vibrométrie à haute sensibilité, ce qui est impossible en configuration incohérente. Un modèle analytique de collecte de puissance pour les systèmes à un seul mode transversal, permettant de prédire les puissances en jeu en configuration cohérente, est développé et validé expérimentalement. La technique de référencement habituelle, permettant de corriger les erreurs causées par les fluctuations des paramètres des peignes, est modifiée et adaptée aux mesures de vibrométrie cohérente. Des mesures de vibrométrie résolue en distance sont présentées, où la capacité du système à démoduler une voix humaine à partir des vibrations d’un mur est démontrée. / The goal of this thesis is to explore the potential applications of frequency combs for remote sensing. For this purpose, three comb-based configurations are studied. For each of these configurations, an analysis of their workings is performed and their advantages and disadvantages are discussed. Experimental setups based on those configurations were built in laboratory. The detection capabilities of the techniques are demonstrated through experimental measurements. The first configuration that is studied enables passive sampling of an external optical source. Using this technique, it is possible to compute the spectrum of the considered source by interferometrically combining it with the pulses from a pair of frequency combs. A stochastic study of the technique is performed to assess its performance limits. Coherent and incoherent sources with high-resolution spectral content are measured. The second technique uses a configuration called incoherent that enables active characterization of a target. Using this technique, it is possible to perform range-resolved hyperspectral measurements of an observed scene. A hyperspectral lidar setup was designed and assembled in laboratory with the goal of performing outdoors measurements of targets at distances up to 175 m. The sensing capabilities of the system are shown for hard and distributed targets, in the form of aerosol clouds. Molecular absorption measurements, as well as thickness measurements for both transparent and translucent targets, are shown. Using the coherent configuration, which is the third one that was considered, it is possible to make active measurements of a target by using one of the pulse trains as a local oscillator. The use of a local oscillator opens the door to high sensitivity vibrometry, which is impossible with the incoherent configuration. An analytical model for the power collection capabilities of a single-transverse-mode system, which has to be used for coherent measurements, is developed and experimentally validated. The usual referencing technique, which is used to correct for fluctuations in comb parameters, is modified and adapted to the case of coherent vibrometry. Range-resolved vibrometry measurements are performed, demonstrating the capability of the system to extract a human voice signal from the vibrations of a wall.
|
294 |
Synthèse de nanoparticules à structure coeur-coquille d'oxyde de fer et d'orBergeron, Benjamin 20 April 2018 (has links)
Le domaine des matériaux fonctionnels est en constante recherche de matériaux aux propriétés novatrices. Selon les fonctions visées, il est avantageux de combiner des propriétés de la matière, normalement présentes dans des matériaux différents. Afin de combiner à la fois les propriétés optiques et d’exaltation de la fluorescence des plasmons localisés des particules de métaux nobles et les propriétés magnétiques des particules d’oxyde de fer, des essais de synthèses de particules à structure cœur-coquille sont réalisés. Les objectifs du projet sont la synthèse de cœurs de magnétite d’une taille d’environ 20 nm et le recouvrement de ces cœurs par une coquille d’or uniforme. Les résultats démontrent que le contrôle de la taille des particules magnétiques par coprécipitation est difficile et, en modifiant certains paramètres, entraîne la formation de particules octaédriques de 20 à 200 nanomètres. De plus, la croissance directe d’une coquille d’or en milieu aqueux semble grandement défavorisée.
|
295 |
Unsupervised segmentation of sequences using harmony search and hierarchical clustering techniquesRoshani, Asra 20 April 2018 (has links)
Dans le contexte de traitement automatique du langage naturel, les données le plus souvent sont présentées comme une longue séquence de caractères discrets. Donc, l'identification d'un modèle intéressant dans la longue séquence peut être une tâche difficile. En conséquence, la segmentation automatique de données serait extrêmement utile pour extraire les sous-séquences et les morceaux significatifs à partir d'une longue séquence de données. La segmentation de données est l'une des étapes de prétraitement les plus importantes dans plusieurs tâches de traitement du langage naturel. La segmentation de mots est considérée comme la tâche de trouver des morceaux significatifs dans le corpus de textes. L'objectif principal de cette étude est de présenter une technique de segmentation hiérarchique non supervisée en utilisant l'algorithme de recherche d'harmonie (Harmony Search algorithm) qui est une approche d'optimisation méta-heuristique. Dans la technique proposée, la tâche de segmentation de mots est réalisée à l'aide d'une recherche d'harmonie binaire (Binary Harmony search) qui une forme particulière de l'algorithme de recherche d'harmonie. La construction et la formation de modèles de langue sont accomplies par un lexique hiérarchique et un algorithme de Baum-Welch. De plus, pour améliorer la performance et la convergence de la recherche de l'harmonie binaire, quelques modifications innovantes sont appliquées. En général, cette étude présente un algorithme de segmentation de mots hiérarchique non supervisée basée sur une méthode recherche de l'harmonie et examine toutes les questions relatives y compris: la segmentation de mots représentées en format binaire, l'harmonie binaire, l'amélioration de la procédure de l'ajustement du lancement, la définition de la fonction objective en recherche d'harmonie et la politique de pénalité. La performance de l'algorithme est évaluée selon la précision de la segmentation, le rappel, la F-mesure et le temps d'exécution de l'algorithme. Une partie du corpus Moby Dick est utilisée comme étude de cas. Nos expérimentations montrent que l'approche de segmentation basée sur une recherche d'harmonie fournit plusieurs de bons segments, mais qu'il nécessite un long temps d'exécution. / In the context of natural language processing, data is presented most of the time as a long sequence of discrete characters. Therefore, identifying interesting patterns within the long sequence can be a challenging task. Consequently, automatic segmentation of data would be extremely useful to extract the meaningful sub-sequences and chunks from a long data sequence. Segmentation of raw data is one of the most important preprocessing steps in many natural language processing tasks. Word segmentation is considered as the task of finding meaningful chunks, i.e. words, within a text corpus. The main objective of this study is to present an unsupervised hierarchical segmentation technique using Harmony Search algorithm which is a meta-heuristic optimization approach. In the proposed technique, the word segmentation task is performed using a Binary Harmony Search (a special form of Harmony Search). The language model construction and training are accomplished using a hierarchical lexicon and Baum-welch algorithm. Moreover, to improve the performance and convergence of the Binary Harmony Search, some innovative modifications are applied. In general, this study introduces an unsupervised hierarchical word segmentation algorithm based on Harmony Search approach and investigates the following related issues: word segmentation mapping to binary format, Binary Harmony Search, pitch adjustment procedure improvement, Harmony Search objective function definition, and penalty policy. The performance of the algorithm is valuated using segmentation precision, recall, F-measure and the algorithm run time when applied to the part of famous Moby Dick story as the case study. Our experiments reveal that the segmentation approach based on Harmony Search provides significantly good segments, while it requires significant run time.
|
296 |
Résolution du contact frottant déformable-déformable par lagrangien augmenté et GCR préconditionnéLacasse, Patrick 20 April 2018 (has links)
Ce document traite le problème de l’élasticité en grandes déformations avec contact frottant. Dans le premier chapitre, nous présentons un rappel des lois auxquelles nous ferons référence : lois de comportement matériau, conditions aux limites, contact et frottement selon la loi de Coulomb. Le coeur de la thèse commence par la discrétisation des conditions de bord. L’imposition en moyenne de la non-pénétration et de la loi de Coulomb est explicitée dans le but de se ramener en dimension finie. C’est dans ce domaine que les algorithmes sont développés. Les conditions d’optimalité sont donc calculées pour le problème déjà discrétisé et sont linéarisées par la suite selon le paradigme des contraintes actives. Suivant cette stratégie, l’état de contact est fixé à chaque itération de la méthode de Newton, transformant les conditions de contact en contraintes d’égalité. Le système de conditions d’optimalité ainsi obtenu peut alors être linéarisé. La résolution de ce nouveau système linéaire constitue l’autre partie importante de cette thèse. Les méthodes de pénalisation et d’Uzawa sont d’abord exposées ; elles serviront de point de comparaison. Nous construisons par la suite un algorithme basé sur un GCR préconditionné par une factorisation faisant apparaître un complément de Schur. Le tout est présenté d’abord dans le cas plus simple du contact sans frottement, puis en ajoutant le frottement. Des résultats numériques, parfois académiques (des cubes) et parfois industriels (des lamelles de pneus), viennent finalement appuyer les convictions que non seulement ces méthodes sont rapides, mais qu’elles sont aussi robustes. / This thesis addresses the problem of large deformation elasticity with frictional contact. In the first chapter, we recall the laws to which we refer: material behavior laws, boundary conditions, contact and friction according to Coulomb’s law. The heart of the thesis begins with the discretization of boundary conditions. Mortar formulations for non-penetration and Coulomb’s law are explained in order to set the problem in a finite dimensional space. Optimality conditions are calculated for the discretized problem and are subsequently linearized according to the paradigm of active set strategy. Under this approach, the contact state is set at each iteration of Newton’s method, transforming the contact conditions in equality constraints. The system of optimality conditions thus obtained can then be linearized. The resolution of this new linear system is another important part of this thesis. Methods of penalization and Uzawa are first exposed; they serve as a comparison point. Thereafter, we introduce a preconditioned GCR algorithm based on a factorization using a Schur complement. The whole problem is presented first in the simplest case of contact without friction, and, in the last chapter, with friction. Numerical results, sometimes academic (cubes) and sometimes industrial (slides tires) finally support the belief that not only these methods are efficient, but they are also robust.
|
297 |
Enrichissement en vitamine D des fromages de type Cottage et CamembertCrevier, Benoit 20 April 2018 (has links)
Le but de ce projet était d’enrichir le fromage Cottage et le fromage Camembert en vitamine D sans perte ni contamination du lactosérum. Pour le fromage Cottage, son procédé de fabrication présente un avantage particulier, car la vitamine D peut être ajoutée après l’étape du soutirage. Il n’y a donc pas de perte de vitamine D pendant l’égouttage, ni de modifications des propriétés du fromage. Pour le Camembert, il a été possible d’éliminer l’étape de soutirage grâce au concept de «pré-fromage liquide» obtenu en combinant un rétentat d’ultrafiltration de lait écrémé à de la crème. La vitamine D a été ajoutée à ce «pré-fromage liquide» qui possède la même composition qu’un Camembert avant sa transformation en fromage. Avec cette technique, l’égouttage du lactosérum est absent et la perte en vitamine D est nulle, mais les propriétés microbiologiques, physico-chimiques et sensorielles des fromages s’en trouvent modifiées.
|
298 |
Développement d'un programme alimentaire pour porcelet sevré en production biologiquePlante, Sabrina 20 April 2018 (has links)
La demande est grandissante pour les produits biologiques, dont la viande de porc. L'un des problèmes majeurs en production porcine biologique survient au moment du sevrage. En effet, les antibiotiques et les farines animales étant interdits en production biologique et les sous-produits laitiers biologiques étant peu disponibles, cela laisse le producteur avec peu d'alternatives alimentaires ou de suppléments pour maximiser la croissance et limiter les problèmes gastro-intestinaux. Pendant l'expérience, deux moulées, l'une simple (SIMP) composée principalement de blé et de tourteau de soya et l'autre complexe (COMP) constitué comparativement à la SIMP avec de la canne à sucre, des concentrés de protéine de pois et de levure. Celles-ci contenient ou non des suppléments (enzymes, probiotiques et prébiotiques) (SUPP), ont été évaluées pendant les deux premières semaines suivant le sevrage. Pendant cette période, les profils bactériens des fèces et la digestibilité des nutriments ont été analysés. Par la suite, les porcelets étaient tous nourris avec la même moulée pour les deux semaines suivantes. Au total, 306 porcelets ont été utilisés sur deux fermes biologiques, Viandes biologiques de Charlevoix et Bionat inc., pour un total de neuf répétitions. Les porcelets étaient sevrés entre 28 et 35 jours d'âge. La moulée COMP a permis d'obtenir un meilleur gain moyen quotidien et une meilleure efficacité alimentaire pendant les deux semaines post-sevrage (P<0,05). Ces meilleures performances des porcelets du groupe COMP ont été associées à une amélioration de la digestibilité de la matière sèche, de la matière organique et de l'énergie pendant les deux premières semaines et une meilleure digestibilité du phosphore pendant seulement la première semaine post-sevrage (P<0,05). Toutefois, après les deux semaines d’application des traitements, les porcelets ayant consommé de la moulée SIMP ont eu une meilleure croissance et efficacité alimentaire que les porcelets du traitement COMP (P<0,05). Globalement, sur l’ensemble de la période expérimentale, aucun effet du type de ration ou des suppléments n’a été noté sur les performances de croissance. Une différence significative de la communauté microbienne entre les moulées SIMP et COMP a été notée deux semaines après le sevrage (P<0,05). Quelques familles et genres bactériens ont pu être identifiés et associés aux rations. En conclusion, les résultats indiquent que des porcelets nourris avec une ration SIMP peuvent à long terme exprimer une croissance équivalente à ceux nourris avec une ration COMP malgré une adaptation post-sevrage plus lente.
|
299 |
Développement d'un procédé d'oxydation avancée pour le traitement d'effluents aqueux contaminés par des polluants réfractaires : étude d'un procédé de décharge plasma à pression atmosphérique couplé à un catalyseur supportéLesage, Olivier 20 April 2018 (has links)
Dans ces travaux de recherche nous avons cherché à développer et optimiser un procédé d’oxydation avancée dédié au traitement de l’eau. Pour cela, Nous avons développé un procédé combinant la génération de radicaux hydroxyles par décharge plasma à pression atmosphérique et un catalyseur fixe. L’originalité de ce travail a été d’utiliser un système d’écoulement permettant l’obtention d’un film liquide (épaisseur < 1mm) afin de permettre une interaction entre le plasma, le liquide et la surface catalytique. Les résultats ont montré que la décharge de type DBD était préférable au Glidarc, plus thermique, plus énergétique et produisant trop de NOx. Les valeurs d’efficacités respectives ont été de 0,67 g.kWh-1 (DBD) et 0,23 g.kWh-1 (Glidarc). Les résultats ont également montré que le matériau de la surface d’écoulement pouvait influencer l’efficacité du procédé. Ainsi dans le cas du laiton, la présence de réactions de corrosion produisant des NO2- réduit l’efficacité de moitié comparée à une plaque d’acier. Le développement d’un modèle CFD 1D du procédé a également été effectué. Celui-ci a permis d’estimer que l’efficacité énergétique de production des HO⋅ est de 4,4.10-9 molHO.J-1 pour la décharge DBD. Il a également permis de montrer que les facteurs majoritairement limitants étaient la présence de réactions parasites telles que la recombinaison des HO⋅. Le modèle a également montré que les réactions chimiques ne durent pas plus de 1µs après l’impact du streamer et n’ont lieu que dans les premiers 5% d’épaisseur de liquide. Enfin, un dépôt catalytique de DLC dopé à l’argent et réalisé par rf-PECVD a permis d’améliorer de près de 10% l’efficacité maximale du procédé. Mots clés : Procédé d’Oxydation Avancée, décharge à barrière diélectrique, Glidarc, dépollution, rf-PECVD, Diamond-Like Carbon, catalyseur, argent, modélisation CFD. / The aim of this research lies in the development and optimization of an advanced oxidation process dedicated to wastewater treatment. This process combines an atmospheric plasma discharge with an immobilized catalyst (Ag-DLC) in order to generate hydroxyl radicals. The novelty of this work relies in the use of a falling thin film system (thickness < 1mm) to promote the interaction between plasma discharge, the solution and the catalytic surface. The results demonstrate the interest of employing a Dielectric Barrier Discharge configuration instead of a Glidarc system. Indeed, the Glidarc system leads to a too high production level of NOx. The efficiencies of these two processes were respectively 0,67 g.kWh-1 and 0,23 g.kWh-1 for the DBD and the Glidarc system. Moreover, the influence of the counter-electrode / flowing plate material on the process efficiency was pointed out. Compared to stainless steel, the presence of corrosion reactions on the brass surface produced NO2- and thus, reduced the process efficiency. The production of HO⋅ radicals at the plasma / water interface was estimated to be 4,4.10-9 molHO.J-1 by the use of 1D CFD modeling. Side reactions such as HO⋅ recombinaison appear as the major limiting factors. Futhermore the model demonstrates that the time needed to complete all the chemical reactions was less than 1 µs and these reactions occurred only in the first 5% of the top liquid film. Finally with an Ag-DLC based catalytic coating elaborated by RF-PECVD, the efficiency was increased to 10% compared to the best efficiency observed with the non-catalytic system. Keywords : Advanced Oxidation Process, Dielectric barrier discharge, Glidarc, depollution, rf-PECVD, Diamond-Like Carbon, catalyst, silver, CFD modelling.
|
300 |
Analyse détaillée du fonctionnement interne du schéma de surface CLASSLarouche Tremblay, François 20 April 2018 (has links)
Le fonctionnement du schéma de surface canadien CLASS a été analysé en détail, basé sur une démarche de rétroconception. L’impact des multiples variables d’états du modèle sur les termes des bilans énergétique et hydrique a été expliqué. La valeur des albédos et des transmissivités de la canopée augmente en fin de saison lorsque la canopée devient moins dense. Donc, le rayonnement au sol augmente alors que celui à la canopée diminue. La résistance de couche limite de la feuille ralentit les transferts de chaleur sensible et latente à la canopée durant le jour, mais n’a aucune influence la nuit. La résistance aérodynamique au transfert de chaleur est plus élevée le jour que la nuit. Elle influe sur les flux de chaleur sensible et latente à la canopée. La résistance de surface au transfert de chaleur est très élevée le jour et peu élevée la nuit. Elle influe sur les flux de chaleur sensible et latente au sol. La résistance stomatale est très grande la nuit. Elle freine le transfert de chaleur latente durant le jour et n’a aucune influence sur les flux de chaleur sensible. Finalement, on a observé de grandes fluctuations de température et de teneur en eau dans les deux premières couches de sol. Tandis que la troisième couche de sol a montré une réaction très lente aux précipitations et aux variations de température à la surface du sol. Les résultats sont supportés d’explications théoriques très détaillées dans la section théorie. / Canadian Land Surface Scheme
|
Page generated in 0.0248 seconds