• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 4
  • 1
  • Tagged with
  • 27
  • 11
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Exploration prospective des mobilités résidentielles dans une agglomération urbaine au moyen d'un modèle de simulation multi-agents (MOBISIM) / Exploration of future changes of residential locations in an urban agglomeration using an individual-based simulation model (Mobisim)

Hirtzel, Joanne 09 February 2015 (has links)
Proposer une offre en logements adaptée aux différents besoins et préférences des ménages représente un enjeu important pour les acteurs publics de l’aménagement. Ces besoins et préférences dépendent des caractéristiques des ménages et des changements qu’ils peuvent connaître dans leur cycle de vie (mise en couple, naissance, séparation…). Les facteurs participant aux choix résidentiels sont nombreux (attributs du logement, caractéristiques de l’environnement résidentiel) et interviennent différemment selon les types de ménages. Les dynamiques résidentielles impliquent ainsi une grande variété d’éléments, en interaction les uns avec les autres, et les relations de cause à effet sont difficiles à identifier. Par conséquent, il n’est pas possible de prévoir le comportement résidentiel des ménages pas plus que leurs évolutions possibles sans outil adapté.Pour étudier les dynamiques résidentielles intra-urbaines, nous utilisons dans cette thèse un modèle de simulation des mobilités résidentielles (Mobisim-MR) intégré dans une plateforme de simulation LUTI individu-centrée : Mobisim. Mobisim-MR permet de déterminer, pour chaque année de simulation, les ménages qui déménagent et leur nouvelle localisation résidentielle. En amont de Mobisim-MR, un modèle de simulation des évolutions démographiques (Mobisim-Démo) a été créé au sein de la plateforme Mobisim. Il permet de reproduire de manière dynamique et individu-centrée l’évolution des ménages dans leur cycle de vie. Une partie de la thèse est dédiée au paramétrage ces deux modèles, étape préalable nécessaire à la simulation de scénarios. Un autre volet de la thèse concerne l’exploration du comportement du modèle Mobisim-MR pour évaluer la stabilité des résultats de simulation et leur cohérence (analyse de sensibilité). L’utilisation de modèles individu-centrés est relativement récente en géographie, d’où l’absence de protocole standard pour l’exploration de tels modèles. Un protocole spécifique a été conçu pour explorer le comportement de Mobisim-MR. Ce protocole tient compte de la nature des paramètres du modèle, des contraintes techniques de simulation et de l’objectif pour lequel le modèle a été conçu.Le dernier volet de la thèse consiste en des analyses thématiques visant à étudier l’impact de deux scénarios de politiques de construction de logements sur l’agglomération du Grand Besançon. Ces analyses montrent la capacité de Mobisim-MR à répondre à des questions concrètes d’aménagement et à apporter des éléments de discussion aux acteurs publics en charge des politiques de logement. / To ensure that housing supply is suitable to households’ needs and preferences represents a major planning concern. These needs and preferences depend on the households’ characteristics and on their lifecycle changes (union, birth, divorce…). Residential choice factors are numerous (housing and residential environment characteristics) and their role is often different according to the types of households. Residential dynamics involve a great variety of elements, in interaction with each other, and the causal relationships are difficult to identify. Thus, it is not possible to predict the households’ residential behaviour, nor their possible evolutions, without a suitable tool. To study intra-urban residential dynamics, we use a residential mobility simulation model (Mobisim-MR), integrated in an agent-based LUTI simulation platform: Mobisim. For each simulated year, Mobisim-MR allows for determination of households which move and their new residential location. Prior to Mobisim-MR, we created a demographic microsimulation model (Mobisim-Démo) within the Mobisim platform. It allows reproducing households lifecycle evolutions in a dynamic and agent-based way. A part of the thesis is dedicated to the calibration of both models, a required stage preliminary to scenarios simulation. Another part of the thesis concerns the exploration of Mobisim-MR model behaviour, in order to assess the simulation results’ stability and their consistency (sensitivity analysis). Agent-based models use is quite recent in geography, explaining the lack of standard protocol to explore such models. A specific protocol has been designed to explore the behaviour of Mobisim-MR. This protocol takes into consideration the parameters characteristics, simulation technical constraints, and the initial design for which the model has been built.The last part of the thesis consists of thematic analyses aimed at studying the impact of two housing construction planning scenarios in the urban region of Besançon (named le Grand Besançon). These analyses highlight the ability of Mobisim-MR to answer concrete planning questions and to initiate discussion among urban planners.
12

Tolérancement et analyse des structures au service des systèmes souples et du défaut de forme

Samper, Serge 29 November 2007 (has links) (PDF)
- Les études des dispersions dans les systèmes mécaniques se font usuellement en faisant l'hypothèse de la rigidité des composants. Les outils issus de la théorie des mécanismes permettent alors un paramétrage des mobilités (Torseurs de Petits Déplacements). L'analyse des structures se fait, elle, sur des systèmes à géométries parfaites. La question se pose de lier ces deux mondes, elle est un des deux enjeux présentés dans ce document. Une extension de la méthode des domaines est proposée. Elle permet l'analyse au pire des cas d'un assemblage dans les deux objectifs du respect de son assemblabilité et de son fonctionnement. Les modèles mathématiques sont complexes pour le concepteur et un de nos objectifs est de les lui rendre intelligibles. A ces fins, il est proposé une démarche d'analyse des tolérances inspirée de la mécanique des structures. <br />- L'étude du défaut de forme quand à lui a bénéficié de moins d'études que celui des dispersions. Les solutions proposées apportent des réponses dans des cas simples. L'apport de la dynamique des structures ouvre le champ d'un paramétrage géométrique riche et polyvalent. Ce thème de recherche permet de qualifier tout type de forme. Les études récentes les combinent à des quantifications arithmétiques ou statistiques. Les applications industrielles de ces travaux permettent leurs développements en cohérence avec les utilisateurs potentiels.
13

A general filter for stretched-grid models

Surcel, Dorina 10 1900 (has links) (PDF)
Un modèle climatique mondial qui utilise une grille à résolution variable constitue une méthode moderne et efficace pour la modélisation régionale, principalement parce qu'elle évite le problème de pilotage aux frontières latérales caractéristique aux modèles sur aire limitée. L'approche de grille étirée s'inscrit parmi les méthodes de réduction d'échelle dynamique (dynamical downscaling) qui permettent naturellement des interactions réciproques entre les échelles régionales et globales du mouvement. Une augmentation de la résolution seulement dans une région spécifique augmente la précision du modèle, gardant en même temps les coûts de calcul inférieurs aux modèles mondiaux qui utilisent une haute résolution uniforme sur toute la grille. Cependant, l'étirement de la grille conduit à des problèmes liés à l'anisotropie de la grille dans les zones adjacentes à la zone de haute résolution uniforme. Dans le cadre de cette thèse, un filtre numérique construit à l'aide d'un produit de convolution a été développé pour répondre aux questions associées à l'étirement et à l'anisotropie de la grille de calcul. La caractéristique principale de ce filtre est d'enlever toutes les échelles inférieures à une échelle prescrite par l'utilisateur. L'efficacité et la précision du filtrage représentent un compromis acceptable entre la réponse de filtrage et les coûts de calcul impliqués. Cette approche a été testée sur des grilles étirées unidimensionnelles et bidimensionnelles cartésiennes. Les résultats ont montré que le filtre est efficace même pour une distance de troncature limitée et que la réponse de filtrage est presque isotrope. Le filtre initialement appliqué sur une grille cartésienne a été adapté dans un deuxième temps pour la grille polaire. Cette étape constitue une démarche nécessaire pour passer ensuite à une grille sphérique latitude-longitude. Les deux grilles, polaire et sphérique, rencontrent le même « problème du pôle » causé par la convergence des méridiens vers les pôles. Des détails sur l'adaptation du filtre pour la grille polaire, ainsi que son application sur une grille polaire uniforme et sur une grille polaire étirée sont présentés. Dans cette partie de la thèse, la performance du filtre près des pôles et dans les régions d'étirement a été testée. Les résultats ont montré que l'opérateur de filtrage est capable d'enlever l'excès de résolution dans les régions polaires, avec des coûts de calculs qui sont inférieurs aux filtres polaires usuels. Le filtre a bien fonctionné en dehors de la région d'intérêt où les échelles qui ne sont pas supportées par la grille ont été enlevées sans déformation ou atténuation des grandes échelles. L'opérateur de filtrage développé a été appliqué sur une grille polaire étirée pour des variables scalaires et pour des vecteurs. Cette étude a montré des résultats prometteurs, la réponse de filtrage pouvant être optimisée pour différentes fonctions-test ainsi que pour différents types de bruit qui devraient être enlevés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : filtrage numérique, produit de convolution, fonction de pondération, grille étirée, anisotropie.
14

Modélisation des propriétés physico-chimiques des aérosols atmosphériques à haute altitude

Lupascu, Aurelia 18 December 2012 (has links) (PDF)
Non disponible.
15

Phenomenology of the scalar sector beyond the standard model / Phénoménologie du secteur scalaire au delà du modèle standard

Flament, Jean-Baptiste 22 October 2015 (has links)
Avec la découverte en juillet 2012 par les collaborations CMS et ATLAS d'un nouveau scalaire, aux propriétés similaires à celles d'un boson prédit plus de 50 ans auparavant, la phénoménologie au-delà du modèle standard (SM) a fait un grand pas. En effet, la découverte de cette pièce manquante du puzzle électrofaible a rendu certains modèles impossibles, tout en renforçant la crédibilité du SM. Cependant, on sait que le SM n'est pas le mot de la fin, car certaines de ses prédictions ne s'accordent pas avec les expériences, et ce boson est donc vu comme une porte vers de nouveaux secteurs de la physique. Après une introduction au SM et aux statistiques de la physique des particules, nous présenterons un paramétrage des couplages mesurés au LHC, afin de contraindre, via ces couplages, des modèles de physique au-delà du SM, plus fondamentaux. Ce paramétrage, s'intéressant particulièrement aux couplages à boucles, permettrait de lever une corrélation existant entre les paramètres actuellement utilisés. Nous étudierons ensuite la possibilité d'existence d'un scalaire, plus léger que celui observé, et ayant échappé aux recherches passées, et de sa recherche au LHC à l'aide de ce paramétrage. Nous donnerons des exemples de paramètres faisant apparaître un tel scalaire, dans le 2HDM et le NMSSM. Enfin, nous verrons que le scalaire peut influencer la production d'une paire de bosons de jauge faible, et qu'à l'aide de notre paramétrage, l'analyse de ce processus peut être utilisée de manière cohérente avec les mesures au pic de masse pour contraindre ces couplages. Nous finirons avec quelques limites de cette approche, ainsi que des propositions d'améliorations / With the discovery of a new particle in July 2012 by the CMS and ATLAS experiments, with properties resembling those of a boson predicted about 50 years earlier by theorists, the search for physics outside of the standard model of particle physics (SM) has made a big step. Indeed, the existence of this piece of the electroweak symmetry breaking proved wrong many theories, while giving more credit to the SM. However, because of some observations it fails to match, we know the SM cannot be the final word, and it is hoped that the study of this new particle will be a path to new sectors of physics. After a brief description of the SM and of the statistics of particle physics, we will present a way to parametrise the couplings measured at CERN, in order to constrain, through these couplings, more fundamental models describing physics beyond the standard model. This parametrisation, focusing on loop-induced couplings, would allow to lift a correlation existing between parameters currently used by experimentalists. We will then study the feasibility of a search for another scalar, lighter than the one discovered and which would have escaped previous searches, through the use of the same parametrisation. In two models, the 2HDM and the NSSSM, values of parameters yet unconstrained are shown.Finally, we will see that this scalar can also influence the joint production of two weak gauge bosons. We will show that the analysis of this process can be used in a coherent manner with on-shell Higgs measurements to constrain its couplings through our parametrisation. We will then end with a brief look at some limitation of this approach, before suggesting ways to overcome them
16

Estimation de paramètres structuraux des arbres dans une savane à partir de mesures LiDAR terrestre et d'imagerie à très haute résolution spatiale

Béland, Martin January 2011 (has links)
This thesis takes its place in a context where information on the biophysical state of forest ecosystems at spatial scales only remote sensing can retrieve is in demand more than ever. In order to provide reliable information using validated approaches, the remote sensing research community recognises the need for new and innovative methods, especially in heterogeneous environments like savannas. The recent emergence of terrestrial LiDAR scanners (TLS) and the increase in the computational capability of computers which allow running ray tracing model simulations with a high level of realism hold great potential to improve our understanding of the processes influencing the radiance measured by satellite sensors. This thesis makes use of these two cutting edge technologies for estimating the spatial distribution of tree leaf area, a key element of modeling radiative transfer processes. The first part of the thesis concerns the development of methods for estimating tridimensional leaf area distribution in a savanna environment from TLS measurements. The methods presented address certain issues related to TLs measures affecting the application of classical theories (the probability of light transmission and the contact frequency) to the estimation of leaf area through indirect means. These issues pertain to the cross-section of laser pulses emitted by a TLS and the occlusion effects caused by the interception of laser pulses by material inside the crown. The developed methods also exploit additional information provided by the active nature of the TLS sensor that is not available to passive sensors like hemispherical photography, i.e. the intensity of a pulse return offers the possibility to distinguish between energy interception by wood and foliage. A simplified approach of this method is presented to promote its use by other research groups. This approach consists of a series of parameterisations and represents a significant gain in terms of the required resources to produce the leaf area, estimates. The second part of the thesis explores the combination of the tree representations generated in the first part with a ray tracing model to simulate the interactions of light with tree crowns. This approach is highly innovative and our study showed its potential to improve our understanding of the factors influencing the radiative environment in a savanna. The methods presented offer a solution to map leaf area at the individual tree scale over large areas from very high spatial resolution imagery.
17

Calibration Bayésienne d'un modèle d'étude d'écosystème prairial : outils et applications à l'échelle de l'Europe / no title available

Ben Touhami, Haythem 07 March 2014 (has links)
Les prairies représentent 45% de la surface agricole en France et 40% en Europe, ce qui montre qu’il s’agit d’un secteur important particulièrement dans un contexte de changement climatique où les prairies contribuent d’un côté aux émissions de gaz à effet de serre et en sont impactées de l’autre côté. L’enjeu de cette thèse a été de contribuer à l’évaluation des incertitudes dans les sorties de modèles de simulation de prairies (et utilisés dans les études d’impact aux changements climatiques) dépendant du paramétrage du modèle. Nous avons fait appel aux méthodes de la statistique Bayésienne, basées sur le théorème de Bayes, afin de calibrer les paramètres d’un modèle référent et améliorer ainsi ses résultats en réduisant l’incertitude liée à ses paramètres et, par conséquent, à ses sorties. Notre démarche s’est basée essentiellement sur l’utilisation du modèle d’écosystème prairial PaSim, déjà utilisé dans plusieurs projets européens pour simuler l’impact des changements climatiques sur les prairies. L’originalité de notre travail de thèse a été d’adapter la méthode Bayésienne à un modèle d’écosystème complexe comme PaSim (appliqué dans un contexte de climat altéré et à l’échelle du territoire européen) et de montrer ses avantages potentiels dans la réduction d’incertitudes et l’amélioration des résultats, en combinant notamment méthodes statistiques (technique Bayésienne et analyse de sensibilité avec la méthode de Morris) et outils informatiques (couplage code R-PaSim et utilisation d’un cluster de calcul). Cela nous a conduit à produire d’abord un nouveau paramétrage pour des sites prairiaux soumis à des conditions de sécheresse, et ensuite à un paramétrage commun pour les prairies européennes. Nous avons également fourni un outil informatique de calibration générique pouvant être réutilisé avec d’autres modèles et sur d’autres sites. Enfin, nous avons évalué la performance du modèle calibré par le biais de la technique Bayésienne sur des sites de validation, et dont les résultats ont confirmé l’efficacité de cette technique pour la réduction d’incertitude et l’amélioration de la fiabilité des sorties. / Grasslands cover 45% of the agricultural area in France and 40% in Europe. Grassland ecosystems have a central role in the climate change context, not only because they are impacted by climate changes but also because grasslands contribute to greenhouse gas emissions. The aim of this thesis was to contribute to the assessment of uncertainties in the outputs of grassland simulation models, which are used in impact studies, with focus on model parameterization. In particular, we used the Bayesian statistical method, based on Bayes’ theorem, to calibrate the parameters of a reference model, and thus improve performance by reducing the uncertainty in the parameters and, consequently, in the outputs provided by models. Our approach is essentially based on the use of the grassland ecosystem model PaSim (Pasture Simulation model) already applied in a variety of international projects to simulate the impact of climate changes on grassland systems. The originality of this thesis was to adapt the Bayesian method to a complex ecosystem model such as PaSim (applied in the context of altered climate and across the European territory) and show its potential benefits in reducing uncertainty and improving the quality of model outputs. This was obtained by combining statistical methods (Bayesian techniques and sensitivity analysis with the method of Morris) and computing tools (R code -PaSim coupling and use of cluster computing resources). We have first produced a new parameterization for grassland sites under drought conditions, and then a common parameterization for European grasslands. We have also provided a generic software tool for calibration for reuse with other models and sites. Finally, we have evaluated the performance of the calibrated model through the Bayesian technique against data from validation sites. The results have confirmed the efficiency of this technique for reducing uncertainty and improving the reliability of simulation outputs.
18

Identification et contrôle des systèmes non linéaires : application aux robots humanoïdes

Suleiman, Wael 18 September 2008 (has links) (PDF)
Le travail de recherche dans ce mémoire aborde les problèmes de l'identification des systèmes non linéaires et également de l'application de la théorie d'optimisation. Dans une première partie, nous proposons des méthodes efficaces et nouvelles afin d'identifier les systèmes linéaires dans le cas d'expérimentations multiples, les séries de Volterra à horizon infini et les systèmes quadratiques en l'état. Dans une seconde partie, nous appliquons la théorie d'identification à la modélisation de la locomotion humaine. Nous abordons ensuite l'optimisation des mouvements des robots humanoïdes, l'imitation des mouvements humains par un robot humanoïde et enfin le paramétrage temporel des chemins dans l'espace des configurations pour un robot humanoïde. Les résultats expérimentaux de nos méthodes sur la plate-forme HRP-2 ont révélé non seulement leur efficacité, mais aussi leurs bonnes performances qui dépassent largement celles des méthodes conventionnelles.
19

Paramétrage Dynamique et Optimisation Automatique des Réseaux Mobiles 3G et 3G+

Nasri, Ridha 23 January 2009 (has links) (PDF)
La télécommunication radio mobile connait actuellement une évolution importante en termes de diversité de technologies et de services fournis à l'utilisateur final. Il apparait que cette diversité complexifie les réseaux cellulaires et les opérations d'optimisation manuelle du paramétrage deviennent de plus en plus compliquées et couteuses. Par conséquent, les couts d'exploitation du réseau augmentent corrélativement pour les operateurs. Il est donc essentiel de simplifier et d'automatiser ces taches, ce qui permettra de réduire les moyens consacrés à l'optimisation manuelle des réseaux. De plus, en optimisant ainsi de manière automatique les réseaux mobiles déployés, il sera possible de retarder les opérations de densification du réseau et l'acquisition de nouveaux sites. Le paramétrage automatique et optimal permettra donc aussi d'étaler voire même de réduire les investissements et les couts de maintenance du réseau. Cette thèse introduit de nouvelles méthodes de paramétrage automatique (auto-tuning) des algorithmes RRM (Radio Resource Management) dans les réseaux mobiles 3G et au delà du 3G. L'auto-tuning est un processus utilisant des outils de contrôle comme les contrôleurs de logique floue et d'apprentissage par renforcement. Il ajuste les paramètres des algorithmes RRM afin d'adapter le réseau aux fluctuations du trafic. Le fonctionnement de l'auto-tuning est basé sur une boucle de régulation optimale pilotée par un contrôleur qui est alimenté par les indicateurs de qualité du réseau. Afin de trouver le paramétrage optimal du réseau, le contrôleur maximise une fonction d'utilité, appelée aussi fonction de renforcement. Quatre cas d'études sont décrits dans cette thèse. Dans un premier temps, l'auto-tuning de l'algorithme d'allocation des ressources radio est présenté. Afin de privilégier les utilisateurs du service temps réel (voix), une bande de garde est réservée pour eux. Cependant dans le cas ou le trafic temps réel est faible, il est important d'exploiter cette ressource pour d'autres services. L'auto-tuning permet donc de faire un compromis optimal de la qualité perçue dans chaque service en adaptant les ressources réservées en fonction du trafic de chaque classe du service. Le second cas est l'optimisation automatique et dynamique des paramètres de l'algorithme du soft handover en UMTS. Pour l'auto-tuning du soft handover, un contrôleur est implémenté logiquement au niveau du RNC et règle automatiquement les seuils de handover en fonction de la charge radio de chaque cellule ainsi que de ses voisines. Cette approche permet d'équilibrer la charge radio entre les cellules et ainsi augmenter implicitement la capacité du réseau. Les simulations montrent que l'adaptation des seuils du soft handover en UMTS augmente la capacité de 30% par rapport au paramétrage fixe. L'approche de l'auto-tuning de la mobilité en UMTS est étendue pour les systèmes LTE (3GPP Long Term Evolution) mais dans ce cas l'auto-tuning est fondé sur une fonction d'auto-tuning préconstruite. L'adaptation des marges de handover en LTE permet de lisser les interférences intercellulaires et ainsi augmenter le débit perçu pour chaque utilisateur du réseau. Finalement, un algorithme de mobilité adaptative entre les deux technologies UMTS et WLAN est proposé. L'algorithme est orchestré par deux seuils, le premier est responsable du handover de l'UMTS vers le WLAN et l'autre du handover dans le sens inverse. L'adaptation de ces deux seuils permet une exploitation optimale et conjointe des ressources disponibles dans les deux technologies. Les résultats de simulation d'un réseau multi-systèmes exposent également un gain important en capacité.
20

Une comparaison des différentes configurations du modèle canadien GEM avec les données de réanalyse NCEP et ERA 40 dans l'Arctique pour la période 1978-2002

Dehasse, Pascal 07 1900 (has links) (PDF)
Afin de pouvoir évaluer les impacts futurs des changements climatiques en Arctique, il faut bien simuler les tendances de ces changements. La comparaison des résultats des modèles climatiques avec les observations est donc capitale pour le développement de modèles climatiques fiables et pour la compréhension de leurs limitations lors des projections futures. Le problème est que seulement quelques modèles couplés sont en mesure de reproduire les tendances majeures de température de surface du 20e siècle (3e Assessment Report of the Intergovernmental Panel on Climate Change, IPCC-2001). En fait, avec l'augmentation des gaz à effet de serre, tous les modèles climatiques anticipent un maximum de réchauffement en Arctique durant la saison froide. Par contre, même si les observations au cours de la deuxième moitié du dernier siècle suggèrent une tendance au réchauffement en Arctique au cours du printemps, de l'été et de l'automne (Rigor, Colony et Martin, 2000), la région du centre de l'arctique ne permet pas de déterminer une tendance de température durant l'hiver et ce, même si les autres régions près du cercle polaire montre un réchauffement durant cette période (Rigor, Colony et Martin, 2000; Kahl et al., 1993). De plus, certaines observations pour la période 1980-2000 vont même jusqu'à montrer des tendances systématiques de refroidissement durant l'automne et l'hiver, non seulement à l'intérieur du cercle polaire arctique, mais également dans certaines régions du nord de l'Europe, de la Russie et du Canada (Comiso, 2003; Wang et al., 2003; Rigor, Colony et Martin, 2000; Hansen et al., 1999; Chapman et Walsh, 1993; Kahl et al., 1993). La comparaison des différentes configurations du modèle canadien GEM avec les réanalyses ERA 40 et NCEP/NCAR dans la région arctique pour la période 1978-2002 dans le cadre de l'année polaire internationale (API) permet ainsi de vérifier si le traitement de la physique et de la dynamique dans le modèle est adéquat pour représenter les principales tendances et les patrons moyens de la variabilité atmosphérique observés. Elle permet également de vérifier que les principaux processus reliés à la diminution de la neige, de la glace de mer et de l'albédo, sont biens représentés par le modèle. L'étude des différentes configurations de GEM montre que celles-ci sont généralement incapables de reproduire les principaux patrons de tendances et de variabilité atmosphérique sur l'Arctique, en particulier la PNA, la NAO/AO et l'anticyclone de Sibérie. Ceci ce traduit notamment par des différences relativement importantes d'une configuration à l'autre. Le fait que certaines différences persistent également entre les réanalyses NCEP et ERA 40 rend également plus difficile la comparaison et l'identification des principaux patrons et processus. En fait, il ressort à première vue que certaines configurations de GEM éprouvent plus de difficultés par rapport à d'autres pour simuler les tendances négatives de SLP sur le bassin arctique, les fortes tendances positives de SAT le long des côtes continentales au printemps et à l'automne ainsi que les fortes tendances positives de SAT sur l'Europe et l'est de l'océan Arctique. Il apparait de plus que les configurations GEM-LAM surestiment de manière relativement importante les tendances et les variabilités de SLP et de GZ à 500 hPa, en particulier à l'automne et à l'hiver. Par contre, l'ensemble des configurations semblent généralement bien simuler les tendances et la variabilité observées durant l'été. Les configurations de GEM sont de plus en accord avec le fait que les variances les plus fortes au lieu durant l'hiver. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Arctique, modèle canadien GEM, configurations, tendances et variabilité, patrons atmosphériques, vortex polaire, la rétroaction de la vapeur d'eau, la rétroaction glace-albédo-température, la rétroaction déshydratation-effet de serre (RDES)

Page generated in 0.0423 seconds