• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 29
  • 5
  • 1
  • 1
  • Tagged with
  • 126
  • 126
  • 63
  • 43
  • 31
  • 26
  • 19
  • 18
  • 16
  • 14
  • 14
  • 14
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation des paramètres de pénétrance incomplète et de phénocopie d'une méthode de cartographie fine d'une maladie complexe

Vahey, Sarah January 2008 (has links) (PDF)
Les méthodes de cartographie fine sont des modèles qui estiment la position d'un allèle mutant pouvant causer une maladie dans un groupe d'individus. Le travail de Larribe et al. (2002, 2003), MapArg, n'a pas tenu compte des paramètres de pénétrance jusqu'à maintenant. Ce mémoire démontre les effets de ces paramètres, soit la pénétrance et la phénocopie, sur la performance de MapArg, dans des populations haploïdes. De plus, deux méthodes que nous avons développées seront ensuite incorporées à MapArg dans le but d'améliorer son efficacité si il y a pénétrance et/ou phénocopie. Les résultats démontrent que la phénocopie peut avoir une influence négative sur l'efficacité de MapArg. La pénétrance ne semble pas avoir d'effet majeur sur MapArg. La première méthode développée est un modèle simple qui n'apporte pas d'amélioration majeure de MapArg par rapport à ce même modèle sans ajustement. Par contre, cela procure un point de départ pour les développements futurs dans les populations diploïdes. La deuxieme méthode améliore l'efficacité de MapArg sous certaines conditions, en particulier, si la taille de l'échantillon est assez grande. La deuxieme méthode fonctionne également très bien pour les données réelles de la Fibrose Kystique (Kerem et al., 1989). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Phénocopie, Pénétrance, Pénétrance incomplète, Cartographie fine.
2

Comportement hydraulique des milieux faillés

Rafini, Silvain January 2008 (has links) (PDF)
Les milieux discontinus se caractérisent par une substitution totale ou partielle de la porosité primaire par une porosité secondaire portée par les fractures et failles. Les écoulements y sont souvent marqués par une forte ségrégation due aux contrastes de conductivité avec la matrice environnante, ainsi qu'entre les discontinuités. L'appréhension de leur géométrie constitue un enjeu majeur en hydrogéologie des milieux discontinus. La distinction entre milieux fracturés et milieux faillés est cruciale en modélisation hydraulique du fait que ceux-ci s'abordent de manières diamétralement opposées: les milieux fracturés forment des réseaux dont les propriétés hydrauliques macroscopiques sont envisagées à travers un schéma d'homogénéité statistique (fractal ou euclidien), privilégiant typiquement une représentation stochastique dans un continuum équivalent. Inversement, les failles sont des structures hydrauliques de grande dimension à l'échelle du réservoir et en nombre restreint. Elles doivent être considérées intrinsèquement dans les modèles d'écoulement comme des unités hydrauliques majeures bi-ou tridimensionnelles discrètes en interaction continue avec la matrice environnante, au sein desquelles les écoulements sont explicitement représentés de manière déterministe. C'est l'approche privilégiée dans cette thèse. L'incapacité des modèles hydrauliques conventionnels à reproduire les comportements transmis par les milieux discontinus est reconnue depuis plusieurs décennies. Les auteurs ont recherché des extensions de ces modèles, dont la plus notable est le modèle Generalized Radial Flow (Barker, 1988) qui introduit le paramètre dimension d'écoulement n et le concept de comportement non-radial (i.e., n ≠ 2). Ce modèle reproduit efficacement les signaux transmis par les milieux discontinus, toutefois sa signification physique est incertaine et les conditions hydrodynamiques associées au développement de dimensions non-radiales demeurent énigmatiques. Il en résulte une très faible applicabilité du modèle GRF malgré le très fort potentiel diagnostique renfermé par le paramètre n. On montre que ce paramètre décrit l'évolution géométrique de l'équipotentielle frontale au cours du test hydraulique transitoire. Le comportement non-radial serait donc produit par tout système dont la géométrie -ou les propriétés hydrauliques -produisent une évolution transitoire de cette surface admettant des modifications de forme progressives et régulières. On peut s'attendre à ce que ce phénomène soit engendré par les interactions transitoires entre une faille et sa matrice. Le premier volet de cette thèse se consacre à la vérification de cette hypothèse. La production de comportements non-radiaux n = 1,5 par le discontinuum faille verticale-matrice est démontrée par la modélisation numérique tridimensionnelle aux éléments finis. L'outil numérique a permis de contraindre quantitativement les conditions hydrodynamiques associées à ce comportement. Celui-ci découle du ralentissement du regime de diffusion au sein de la faille, engendré par l'approvisionnement matriciel. Par ailleurs, l'observation des modalités d'apparition des dimensions d'écoulement dans les milieux discontinus naturels (base de données de quarante-et-un essais de pompages) a fait ressortir des signatures complexes presque systématiquement composées de plusieurs périodes radiales et non-radiales, dont aucun modèle hydraulique existant ne peut rendre compte. Ces signatures multiphasées montrent une excellente homogénéité spatiale attestée par les tests d'interférences (six sites considérés). Un autre volet de cette thèse s'attache à explorer les moyens diagnostiques renfermés par une telle complexité et variabilité des comportements naturels à travers une approche numérique expérimentale recherchant des extensions du modèle à faille verticale analysé précédemment vers des configurations géométriques et hydrauliques moins idéalisées: faille inclinée jusqu'au stade horizontal, milieu composite (faille à l'interface), anisotropie. Plusieurs comportements élémentaires ont été élaborés, très bien corroborés par les signatures naturelles dont une interprétation avancée en termes de conditions d'écoulement discontinu est rendue possible. Ces résultats constituent une amélioration significative des modèles hydrauliques en milieux faillés, toutefois on montre que le potentiel diagnostique du paramètre dimension d'écoulement demeure très faiblement exploité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Aquifères, Failles, Essais de pompages, Modélisation numérique.
3

Modélisation par automates cellulaires de brèches hydrothermales

Lalonde, Martin January 2006 (has links) (PDF)
Une brèche est un ensemble de blocs anguleux noyés dans un ciment de nature variable. Les brèches hydrothermales sont générées par un processus de fracturation, de dissolution des fragments, ainsi que des changements de composition causés par des eaux souterraines sous pression à haute température. La nature de la majorité des processus impliqués dans la formation des brèches hydrothermales est bien comprise d'un point de vue géochimique et plusieurs modèles basés sur cette perspective existent. Par contre, il n'existe pas de modèles approchant ces processus d'un point de vue géométrique. Dans ce mémoire, nous proposons un modèle basé sur les automates cellulaires, capable de simuler les principaux processus qui interviennent dans la formation des brèches. Un automate cellulaire est un modèle discret qui consiste en une grille de cellules pouvant chacune prendre à un instant donné un nombre fini d'états. Le temps est également discret et l'état d'une cellule au temps t est fonction de l'état au temps t -1 d'un nombre fini de cellules appelé son voisinage. À chaque nouvelle unité de temps, les mêmes règles sont appliquées pour toutes les cellules de la grille, produisant une nouvelle génération de cellules dépendant entièrement de la génération précédente. Cette approche est compatible avec l'aspect discret de la dissolution des minéraux et permet l'étude de l'évolution géométrique de fragments de roche virtuelle. Plus spécifiquement, on veut mesurer la complexité morphologique des fragments par leur dimension fractale de bordure, une méthode de mesure utilisée sur des échantillons réels et permettant de valider notre modèle avec des données analogiques. Un simulateur a été conçu pour mettre en oeuvre un tel modèle. Celui-ci est codé en Java et l'interface graphique est en HTML. Des expériences sur le simulateur ont mis en évidence deux régimes de dissolution: l'un limité par la diffusion (Diffusion Limited Regime -DLR), l'autre cinétique. Le premier régime dépend de la surface exposée et on y observe l'arrondissement et le lissage progressif des fragments. Le second régime est indépendant de la surface et on observe la formation de cavités dendritiques et une augmentation progressive de la complexité morphologique. D'un point de vue géochimique, le régime DLR est dit «contrôlé par la surface» alors que le régime cinétique est dit «contrôlé par le transport». Les extensions possibles au modèle sont variées et nombreuses. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Brèche hydrothermale, Automate cellulaire, Modélisation, Dissolution, Dimension fractale.
4

Structure tridimensionnelle du manteau supérieur sous l'est du Bouclier canadien et le nord des Appalaches par la tomographie des ondes P

Villemaire, Mélanie 08 1900 (has links) (PDF)
Certaines études séismiques du manteau supérieur, menées sous le Bouclier Canadien, indiquent la présence d'anomalies de faible vitesse à l'intérieur de la lithosphère de la région. Le manque de couverture vers l'est et le sud-ouest empêchait auparavant la conscription de la géométrie 3D de ces anomalies. L'ajout de plusieurs stations au Québec et aux États-Unis permet une nouvelle analyse des structures de vitesse séismique par l'utilisation de la tomographie des ondes P. Ce nouveau réseau couvre un territoire d'environ 1750 par 1550 kilomètres répartis sur trois provinces géologiques soit, le Supérieur, le Grenville et les Appalaches. De cette manière, il a été possible de mieux comprendre la complexité mantellique de l'est de l'Amérique du Nord. Les temps d'arrivée relatifs des ondes P furent calculés par la méthode de corrélation croisée à canaux multiples de VanDecar et Crosson (1990). Les structures de vitesse séismique furent ensuite déterminées à partir d'une inversion tomographique des temps d'arrivée résiduels relatifs selon la méthode de VanDecar (1991). L'analyse du modèle résultant montre la présence de caractéristiques lithosphériques semblables entre les provinces du Supérieur et de Grenville, toutes deux d'âge précambrien. Elle montre également une lithosphère beaucoup plus mince sous la Province des Appalaches, d'âge paléozoïque. De plus, l'asthénosphère située sous cette dernière a une vitesse moyenne beaucoup plus faible que celle située sous la lithosphère précambrienne. Cela est peut-être dû à la déshydratation d'une plaque en subduction. La délimitation d'un corridor de faible vitesse positionne assez bien l'emplacement des provinces ignées associées au passage du point chaud Great Meteor. Il est également possible d'observer des traces de plaques en subduction à deux endroits. La première plaque se trouve dans la lithosphère sous la Province d'Opatica et semble reliée au processus d'accrétion de la Province du Supérieur. La seconde, quant à elle, se trouve dans le manteau inférieur et pourrait constituer la plaque Farallon, en subduction à partir de la marge ouest du continent. Enfin, cette étude a permis d'affirmer l'importance de deux processus ayant contribué au remodelage du manteau sous l'est de l'Amérique du Nord soit, la subduction et l'interaction de la lithosphère continentale avec un point chaud. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Tomographie, séismologie, modélisation, manteau, Amérique du Nord
5

La modélisation mathématique des réseaux logistiques : procédés divergents et positionnement par anticipation. Application à l'industrie du bois d'œuvre

Vila, Didier 04 October 2005 (has links) (PDF)
Les décisions de localisation, de configuration et de définition des missions des centres de production et/ou de distribution sont des enjeux stratégiques pour le futur des entreprises manufacturières. La modélisation mathématique des réseaux logistiques a pour objectif de suggérer des décisions économiquement efficaces aux gestionnaires. Cependant, la transcription fidèle de ces enjeux en termes mathématiques conditionne la crédibilité et l'efficacité des solutions recommandées. Dès lors, l'élaboration de méthodologies réalistes apparaît être une des conditions de succès de toute formalisation. Cette thèse propose tout d'abord, une méthodologie générique réaliste de conception des réseaux logistiques pour les industries dont les procédés sont divergents. La méthodologie proposée est validée en l'appliquant à Virtu@l-Lumber, un cas virtuel mais réaliste de l'industrie du bois d'oeuvre. Ensuite, une approche de positionnement par anticipation intégrant les préférences des clients est élaborée et expérimentée. Cette approche s'appuie sur un modèle de programmation stochastique avec recours. Au final, un modèle mathématique intégrateur combinant les concepts des deux méthodologies précédentes est formulé et son impact potentiel sur l'industrie du bois-d'oeuvre est examiné à l'aide du cas Virtu@l-Lumber.
6

Développement d'un système de libération de peptides dérivés de la protéine morphogénétique osseuse 9 comme stratégie de traitement contre la maladie d'Alzheimer

Lauzon, Marc-Antoine January 2017 (has links)
Le vieillissement croissant de la population mondiale augmente les risques d’incidence de maladies dégénératives comme la maladie d’Alzheimer (AD). L’AD représente la forme de démence la plus commune. C’est plus de 40 millions de personnes qui sont affectés à l’échelle mondiale, créant ainsi un lourd fardeau économique annuel de plusieurs centaines de milliards de dollars. L’AD est une maladie dégénérative du cerveau qui se traduit par une perte graduelle de la mémoire et des fonctions cognitives. Cette dernière se caractérise par trois symptômes pathophysiologiques intimement reliés qui sont : (1) un système cholinergique défectueux, (2) une accumulation excessive de plaques séniles toxiques composées de peptides β–amyloïdes et (3) une hyperphosphorylation de la protéine Tau qui résulte en des enchevêtrements neurofibrillaires. Il n’existe à ce jour aucune cure contre l’AD et les traitements actuellement retrouvés sur le marché n’ont qu’un effet transitoire. En revanche, il y a de plus en plus d’indices qui suggèrent que l’utilisation de certains facteurs de croissance comme l’IGF-2, le bFGF et les neurotrophines pourraient agir à titre de traitement. Parmi ces derniers, la protéine morphogénétique osseuse 9 (BMP-9) a montré un fort potentiel thérapeutique. Cette dernière est toutefois coûteuse à produire en plus d’être volumineuse, ce qui limite fortement son acheminement au cerveau en raison de la barrière hématoencéphalique. Dans cette optique, nous avons développé deux peptides de 23 acides aminés dérivés de l’épitope knuckle de la BMP-9, pBMP-9 et SpBMP-9, 300 fois moins chers à produire. Les travaux de ce projet de doctorat portent sur le développement d’un système de libération du SpBMP-9, le plus efficace des deux peptides, comme stratégie de traitement contre l’AD. Tout d’abord, il a été montré que le SpBMP-9 permettait d’induire la différenciation neuronale de cellules humaines SH-SY5Y de façon plus efficace que la protéine native par la présence d’une croissance plus importante des neurites et l’expression de marqueurs de différenciation neuronaux. De plus, le SpBMP-9 pouvait agir sur au moins deux symptômes de l’AD en orientant la différenciation vers le phénotype cholinergique et en inactivant la GSK3β, une Tau kinase. Ensuite, un système de libération sous forme de nanoparticules à base de chitosane et d’alginate a été développé, puis caractérisé. Ce système de libération a permis d’encapsuler efficacement le SpBMP-9. Le suivi et la modélisation des cinétiques de libération à l’aide d’un modèle mathématique prenant en considération la distribution de taille des particules a permis d’identifier que la libération était principalement diffusive, mais qu’il existait de fortes interactions entre le peptide et l’alginate. Les tests de viabilité ont montré que les nanoparticules n’étaient pas toxiques sur des cellules SH-SY5Y. Enfin, le SpBMP-9 libéré à partir des nanoparticules était toujours bioactif et permettait une différentiation neuronale. Finalement, une étude exploratoire a permis de mettre en évidence que le SpBMP-9 pouvait agir en synergie avec le bFGF et le NGF. La combinaison du SpBMP-9 avec le bFGF ou le NGF a montré la présence d’une différenciation neuronale accrue mise en évidence par la présence d’une croissance de neurites supérieure, par l’expression de plusieurs marqueurs de différenciation ainsi que par un niveau de calcium intracellulaire plus important. Pour conclure, ces travaux de recherche suggèrent que le SpBMP-9 possède un fort potentiel thérapeutique dans le contexte de l’AD. Une étude plus approfondie de ses mécanismes d’action est requise ainsi que la validation de son effet in vivo sur modèle animal.
7

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar

Bernard, Claire 19 September 2011 (has links) (PDF)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité.
8

Problèmes mathématiques et numériques issus de l'imagerie par résonance magnétique nucléaire

Boissoles, Patrice 02 December 2005 (has links) (PDF)
La présence d'objets métalliques en Imagerie par Résonance Magnétique provoque des dysfonctionnements qui peuvent se manifester par des artefacts, des échauffements, ... Dans le présent travail, on construit et étudie des modèles mettant en évidence le phénomène d'échauffement.<br /><br />Dans la première partie, on étudie l'antenne cage d'oiseau. On montre que les pulsations de résonance sont les valeurs propres d'un problème aux valeurs propres généralisé et on développe une méthode de calcul efficace de celles-ci. On étudie ensuite les propriétés du champ radiofréquence à l'aide de simulations numériques : mouvement de rotation en tout point et homogénéité au centre de l'antenne.<br /><br />Dans la deuxième partie, on modélise le problème magnétique associé à l'IRM par les équations de Maxwell avec le champ radiofréquence comme condition aux limites. On montre que ce problème est bien posé en dimension 3 et qu'il est équivalent à une série de problèmes axisymétriques bidimensionnels découplés. Des calculs numériques sont effectués sur les problèmes axisymétriques, qui confirment les résultats théoriques obtenus.
9

Modélisation mathématique de l'athérosclérose

El Khatib, Nader 29 May 2009 (has links) (PDF)
L'athérosclérose est une maladie inflammatoire qui commence quand les lipoprotéines de faible densité (LDL) entrent dans l'intima du vaisseau sanguin où elles sont oxydées (ox-LDL). Le ox-LDL est considéré comme un agent dangereux par le système immunitaire provoquant ainsi une réponse immunitaire. Cette réponse immunitaire déclenche le recrutement des monocytes dans l'intima où elles se transforment en macrophages et ensuite en cellules spumeuses. Ce dernier amplifie la production des cytokines inflammatoires et davantage de recrutement des monocytes. Ce processus auto-amplifié est compensé par la sécrétion de cytokines anti-inflammatoires (anti-inflammation biochimique) et la migration des cellules musculaires lisses pour former une chape fibreuse qui couvre le noyau lipidique. Cette chape fibreuse avec le noyau lipidique s'appellent la plaque d'athérosclérose. Celle-ci change la géométrie du vaisseau sanguin en le rétrécissant et interagit avec du flux sanguin. Cette interaction peut avoir des conséquences dangereuses liées à la rupture de plaque ou à la formation du caillot de sang. La thèse est consacrée à la modélisation mathématique de ces phénomènes. Elle est composée de deux parties : Nous développons des modèles mathématiques basés sur des équations de réaction diffusion afin de décrire le processus inflammatoire. Le premier modèle est unidimensionnel. Il nous permet d'expliquer comment le développement de l'athérosclérose dépend de la concentration en cholestérol (ox-LDL). Si cette concentration dans l'intima est basse, alors la maladie ne se développera pas. Les concentrations intermédiaires de ox-LDL peuvent mener au développement de la maladie dans certaines conditions. Nous montrons que l'inflammation se propage en front d'ondes de réaction-diffusion. Les concentrations élevées de ox-LDL engendre le développement de la maladie. Même une petite perturbation du cas non inflammatoire mène à une propagation d'ondes qui correspond à l'inflammation. Ensuite nous étudions un modèle bidimensionnel qui représente un système d'équations type réaction-diffusion sur une bande. La deuxième dimension correspond à la section transversale de l'intima et une condition aux limites non-linéaire décrit le recrutement des monocytes. Cette condition aux limites est une fonction des concentrations des cytokines. Nous démontrons l'existence des fronts de propagation d'onde et confirmons les résultats précédents qui montrent que l'athérosclérose se développe en tant qu'onde de réaction-diffusion. Les résultats théoriques des deux modèles sont confirmés par des simulations numériques qui montrent que le cas bidimensionnel converge vers le cas unidimensionnel quand l'épaisseur de l'intima tend vers zéro. Une fois la plaque se forme, elle interagit avec le flux sanguin engendrant de différentes conséquences mécaniques et biochimiques. Nous développons un modèle d'interaction fluide-structure. La plaque d'athérome composée d'un dépôt lipidique couvert par une chape fibreuse, les deux étant modélisés en tant que matériaux hyper-élastiques. Le sang est considéré comme un fluide non-Newtonien avec une viscosité variable modélisée selon la loi de Carreau. Les paramètres utilisés dans nos simulations sont tirés de données expérimentales mentionnées dans la littérature. Nous étudions les effets non-Newtoniens sur les recirculations du sang en aval de la plaque d'athérome et aussi sur les contraintes sur celle-ci. Les simulations montrent que le modèle Newtonien surestime les recirculations de manière significative par rapport au modèle non-Newtonien. Elles montrent aussi que le modèle Newtonien sous-estime légèrement les contraintes sur la plaque pour des taux de cisaillement usuels, mais cette sous-estimation devient importante pour des taux de cisaillement bas.
10

Évaluation de la performance de quatre schémas microphysique pour la simulation des nuages arctiques en phase mixte avec le modèle Gem-Lam

Dorais, Johanne Gabrielle January 2010 (has links) (PDF)
Les stratus arctiques en phase-mixte sont fréquemment observés en Arctique, particulièrement lors des saisons de transition. Les observations ont montré qu'ils ont un impact considérable sur le bilan énergétique en surface. Ces nuages sont caractérisés par une instabilité colloïdale et par des interactions complexes avec les aérosols qui compliquent la simulation numérique de ces nuages. Des études antérieures ont montré que les modèles ont tendance à sous-estimer la quantité d'eau liquide et à prédire une quantité de glace supérieure à celle observée. Cette mauvaise partition des phases dans les nuages simulés fausse la simulation de la durée de vie des nuages ainsi que le forçage radiatif en surface. Les procédés microphysiques responsables de la partition de l'eau liquide et de la glace dans les stratus arctique en phase-mixte ne sont pas encore totalement compris et nécessitent des études plus approfondies. L'objectif de ce projet de recherche est d'évaluer la performance de quatre schémas microphysiques pour la simulation des nuages arctiques en phase-mixte observés lors de la campagne Mixed-Phase Arctic Clouds Experiment (M-PACE) qui a eu lieu sur la côte nord de l'Alaska à l'automne 2004. Les schémas ont été implantés dans le modèle canadien Global Environnemental Multi Échelle à aire limitée (GEM-LAM) et les simulations sont faites à une résolution horizontale de 2,5km. Les quatre schémas sont de complexité différente, deux sont à simple moment et deux sont à double moment. Les résultats montrent que tous les schémas surestiment la quantité d'eau liquide et ont de la difficulté à reproduire les nombreuses couches nuageuses observées. L'analyse des résultats a montré que tous les schémas ont de la difficulté à bien partitionner les phases liquide et solide. De plus, l'implantation de paramétrage plus complexe pour la nucléation hétérogène de la glace permet d'améliorer les résultats pour les schémas à simple moment, mais a peu d'effets pour les schémas à deux moments. Les schémas à double moment comporte un plus grand nombre de procédés qui peuvent influencer les résultats. Il en ressort que modifier les paramétrages de nucléation primaire dans ce type de schéma a des effets limités sur les résultats. La modification du paramétrage du gel par déposition dans le schéma de Morrison et al. par un paramétrage plus complexe basé sur les travaux de Eastwood et al. (2009) a eu très peu d'influence sur les résultats et n'a pas permis d'augmenter la quantité de glace simulée. Par contre, l'implantation de ce même paramétrage combiné à l'implantation de paramétrages plus performants pour le gel par immersion et par contact dans le schéma de Kong et Yau a permis d'augmenter la quantité de glace simulée dans les nuages en phase-mixte et d'améliorer la simulation de la structure verticale du contenu en eau liquide. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Microphysique des nuages, Modélisation numérique, Climat arctique, GEM-LAM.

Page generated in 0.146 seconds