• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 75
  • 75
  • 75
  • 75
  • 75
  • 65
  • Tagged with
  • 140
  • 140
  • 140
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

An investigation of carbon cycle dynamics since the last glacial maximum using a climate model of intermediate complexity

Simmons, Christopher January 2014 (has links)
The University of Victoria Earth System Climate Model (UVic ESCM) v. 2.9 is used in this thesis to investigate two important topics in paleoclimate research: the glacial-to-interglacial rise in CO2 and the Holocene carbon cycle. The UVic ESCM belongs to a class of models known as Earth system Models of Intermediate Complexity (EMICs) (Claussen et al. 2002) and provides a simplified yet comprehensive representation of the climate system and carbon cycle dynamics, including a three-dimensional ocean model, a dynamic-thermodynamic sea ice model, a dynamic global vegetation model, ocean sediments, and a fully-interactive inorganic and organic carbon cycle in the ocean. First, a suite of transient simulations were conducted to cover the period from the Last Glacial Maximum (LGM) to the present (2000 A.D). Simulations including only prescribed orbital forcing and continental ice sheet changes failed to produce an increase in atmospheric CO2 for the simulation period, although they demonstrated significant long-term sensitivity (10-15 ppm) to small (1.9 Tmol yr-1) variations in the weathering rate. Modelling experiments incorporating the full CO2 radiative forcing effect since the Last Glacial Maximum, however, resulted in much higher CO2 concentrations (a 20 ppm increase over those without CO2 radiative forcing) due to a greater ventilation of deep-ocean DIC and decreased oceanic CO2 uptake, related in part to a larger decrease in southern hemisphere sea ice extent. The more thorough ventilation of the deep ocean in simulations with CO2 radiative forcing also caused a larger net alkalinity decrease during the late deglacial and interglacial, allowing atmospheric CO2 to increase by an additional 10 ppm in the simulations presented here. The inclusion of a high latitude terrestrial carbon reservoir provided a net release of carbon to the atmosphere, mostly during the early deglacial, increasing atmospheric CO2 levels to 240-250 ppm. This terrestrial release also provided better agreement with observed changes in carbonate concentrations in the deep ocean since the LGM (Yu et al. 2010). The addition of freshwater fluxes from ice sheet melting in North America added emphasis on the importance of a lower weathering rate during the LGM and early deglacial and indicated that deep water in the North Pacific may become more positively buoyant during freshwater fluxes in the Atlantic due to greater diffusion of heat to the deep ocean by enhanced Pacific intermediate water formation.Second, our results for the Holocene carbon cycle indicate that atmospheric CO2 should decrease between 6000 B.C. and 2000 A.D. without some kind of external forcing not represented in the model. However, the amount of the decrease (8-15 ppm) varied for different ocean circulation states. Furthermore, our simulations demonstrated significant sensitivity to Antarctic marine ice shelves, and these results indicate that more extensive marine ice shelves during the Holocene (relative to previous interglacials) may increase atmospheric CO2 levels by ~5 ppm (from purely physical mechanisms) and as much as 10 ppm when different ocean circulation states or alkalinity changes are included. Adding various anthropogenic land use scenarios to the Holocene carbon cycle were unable to explain the CO2 trend, accounting for only a third of the ice core CO2 increase by 1 A.D. in our most extreme scenario. However, the results imply that external mechanisms leading to a decrease in alkalinity during the Holocene (such as declining weathering rates, more extensive marine ice shelves, terrestrial uptake, more calcifiers, coral reef expansion, etc.) may prevent the ocean from absorbing more of the anthropogenic terrestrial release, allowing the deforestation flux to balance a greater fraction of the Holocene peatland uptake (not modelled) and permitting CO2 to increase from oceanic processes that are normally overwhelmed by northern peatlands. / Cette thèse détaille l'application du modèle du système climatique terrestre de l'Université de Victoria (version 2.9) dans le cadre de deux importants champs de recherche en modélisation paléoclimatique : l'augmentation du niveau de dioxyde de carbone (CO2) dans l'atmosphère durant la plus récente transition glaciaire-interglaciaire, ainsi que l'évolution du cycle du carbone durant l'Holocène. Le modèle utilisé dans cette étude est répertorié comme modèle de complexité intermédiaire (Claussen et al. 2002), offrant un traitement à la fois simplifié et exhaustif de la dynamique du système climatique terrestre et du cycle du carbone. Celui-ci comprend un modèle océanique tridimensionnel, un modèle de glace marine dynamique/thermodynamique, un modèle dynamique et global de la végétation, les sédiments océaniques ainsi qu'un traitement interactif du cycle du carbone organique et inorganique.Premièrement, une série de simulations transitoires sont effectuées afin de couvrir la période s'étendant du plus récent maximum glaciaire (LGM) jusqu'à aujourd'hui (2000 apr. J.-C.). Les simulations fondées uniquement sur une prescription des paramètres orbitaux et des calottes glaciaires ne reproduisent pas l'augmentation du CO2 dans l'atmosphère durant la période transitoire tel que mentionné ci-haut, mais exposent toutefois une certaine sensibilité (10-15 ppm) à de faibles (1.9 Tmol/an) variations dans le taux d'érosion. Dans le cas de simulations prenant en compte la gamme complète des effets radiatifs associés au CO2, par contre, la concentration du CO2 dans l'atmosphère s'avère beaucoup plus élevée (une augmentation de 20 ppm par rapport à celles sans effets radiatifs). Cette différence est causée par une plus importante ventilation de carbone inorganique dissous en eaux profondes ainsi qu'une diminution du taux d'absorption de CO2 par l'océan, qui s'explique en partie par une fonte accélérée de la glace marine dans l'hémisphère Sud. Le changement du régime de ventilation en profondeur a également pour effet de diminuer l'alcalinité marine à partir de la fin de la période de déglaciation, augmentant de 10ppm la concentration de CO2 dans l'atmosphère. La présence d'un réservoir de carbone terrestre an hautes latitudes fournit une source additionnelle de carbone, principalement durant les stages initiaux de la période de déglaciation, permettant ainsi aux niveaux de CO2 dans l'atmosphère d'atteindre les 240-250 ppm. En outre, ceci facilite la validation de nos résultats par rapport aux changements dans la concentration de carbonate observées depuis le dernier maximum glaciaire dans les profondeurs marines (Yu et al. 2010). Le faible taux d'érosion terrestre durant le maximum glaciaire et la période de déglaciation qui a suivi est d'autant plus significatif en raison d'un apport accru d'eau douce de fonte en provenance des calottes glaciaires Nord-Américaines. Deuxièmement, nos résultats quant au cycle du carbone durant l'Holocène pointent vers une certaine diminution du niveau de CO2 dans l'atmosphère se manifestant vers 6000 av. J.-C. et qui, en l'absence de forçage externe au modèle, devrait se maintenir jusqu'à aujourd'hui ; celle-ci semble toutefois varier (8-15 ppm) en fonction du mode de circulation océanique. De plus, la concentration atmosphérique de CO2 dans nos simulations démontre une importante sensibilité à l'étendue des barrières de glace en Antarctique, d'où notre conclusion qu'une présence accrue de glace marine durant l'Holocène (par rapport aux autres périodes interglaciaires) pourrait augmenter le niveau de CO2 atmosphérique de près de 5 ppm (effets physiques directs), et de pas moins de 10 ppm en considérant la gamme de modes de circulation océanique ainsi que les changements dans l'alcalinité marine.
52

Operational mitigation of ground clutter using information from past and near-future radar scans

Anderson-Frey, Alexandra January 2014 (has links)
When a radar pulse encounters obstacles in its path, the accuracy of radar reflectivity data is adversely affected, which in turn decreases the quality of forecasting and nowcasting tools such as rainfall totals and cell-tracking algorithms. In this study, we seek an optimal solution for real-time, operational gap-filling in radar data contaminated by known areas of ground clutter, and explore a variety of algorithms of increasing complexity to that end, making use of a geostatistical method known as ordinary kriging. The final result is the development of a "smart" ordinary kriging algorithm. This method replaces clutter-contaminated pixels in radar data using the weighted average of a nearby collection of uncontaminated pixels, which have been specially selected to sample independent spatial and temporal information while avoiding bogging down calculations with redundant information. These data are obtained not only from the same reflectivity scan as the ground clutter to be corrected, but also from different heights and from both earlier and near-future times. The incorporation of the time dimension in particular adds a great deal of value to simplistic algorithms, even when only data from past times are considered. Radar scans from earlier times are thus shown to be a major untapped source of information that can be used to generate (and regenerate, using near-future data) more accurate radar products. / Lorsqu'un signal radar rencontre des obstacles, la précision des données de réflectivité est endommagée, ce qui réduit la qualité des outils de prévisions météorologiques tels les totaux de précipitation et les algorithmes qui surveillent l'évolution des orages. Dans cette étude, on recherche une solution optimale pour remplir en temps réel et dans un contexte opérationnel les trous d'information causés par les échos de sol, en explorant une variété d'algorithmes de plus en plus complexe basée sur une méthode géostatistique: le kriging ordinaire. Le résultat final est le développement d'un algorithme de kriging ordinaire "intélligent". Cette méthode remplace les pixels contaminés en utilisant la moyenne pondérée de pixels non-contaminés à proximité, où ces pixels sont sélectionnés specialement pour incorporer des données indépendentes et pour ne pas surcompliquer les calculs avec trop d'informations redondantes. Ces informations proviennent non seulement du même temps et du même niveau que la région qui doit être corrigée, mais aussi d'aux autres niveaux ainsi que du passé et du proche-futur. L'inclusion de la dimension temporelle en particulier offre grand valeur même aux algorithmes les plus simples, et aussi lorsqu'on considère seulement les informations du passé et non du futur. Les données du radar des temps antérieurs constituent alors une source inexploité d'informations qui pourraient permettre de générer (et de régénérer, en utilisant les données du proche-futur) des produits radar plus précis.
53

An assessment of freezing rain processes in the Saint- Lawrence River Valley: synoptic-dynamic analysis and operational model verification

Splawinski, Sophie January 2014 (has links)
Freezing rain (FZRA), a hazardous meteorological phenomenon, poses a significant threat to the general public and can severely damage societal infrastructure. The phenomenon is well known throughout the St-Lawrence River Valley (SLRV), which is known to have one of the highest frequencies of FZRA in the world owing to its orography and spatial orientation. Our focus is to provide meteorologists with the means to better predict both the onset and duration of FZRA at Montreal (CYUL), Quebec City (CYQB), and Massena (KMSS) in a two-stage process: by introducing a new 2-dimensional elliptic regression statistical forecast model and to assess synoptic and mesoscale conditions associated with past events. Analysis of a 27-year period, from 1979 through 2005, was conducted with a total of 99, 102, and 70 FZRA events at CYQB, CYUL, and KMSS, respectively. Our statistical analysis provides meteorologists with the POZR (probability of freezing rain): the ability to input model forecasted temperatures at two pressure levels and determine the probability of the onset of FZRA based on a 30-year climatology of northeasterly related precipitation. Synoptic-dynamic analysis of past events acknowledges the need for a high-resolution forecast model to adequately resolve mesoscale processes crucial to FZRA maintenance. Tests performed using a verification dataset (2006-2011 ZR event data) show the accuracy and feasibility of the model, which could be implemented by forecasting offices. Furthermore, synoptic-dynamic assessment of events within the verification dataset and forecast model comparison provide insight into missed forecasts, great forecasts and false alarms. Utilizing these methods could provide meteorologists with the opportunity to produce more highly accurate forecasts of both the onset and duration of freezing rain events. / La pluie verglaçante (PV) est une forme de précipitation qui pose un danger non seulement pour le secteur publique mais également pour le secteur aérien. Ce phénomène est particulièrement connu dans la vallée du fleuve St. Laurent (VFSL). L'orientation de la vallée ainsi que l'orographie explique ce nombre accru d'évènement. Le but vise est donc de fournir aux météorologues les outils nécessaires pour améliorer les prévisions de durée et de location de PV pour les villes de Montréal (CYUL), Québec (CYQB), et Massena (KMSS). Afin d'y parvenir, deux étapes sont requises : la première, introduire un nouveau modèle statistique de prévision et la deuxième, évaluer les conditions synoptiques et meso-échelle des évènements au cours des 27 dernières années. Pendant cette période, 99, 102, et 70 évènements de PV se sont produit à CYQB, CYUL, et KMSS, respectivement. Notre analyse statistique fourni aux météorologues une probabilité d'occurrence de PV (POZR). L'analyse est un moyen d'introduire les prévisions de température à deux différents niveaux et déterminer la probabilité de PV en utilisant un modèle baser sur les données provenant d'une climatologie de précipitations et de vents dans la VFSL. Les analyses synoptiques et dynamiques des évènements passés nous ont montré la nécessité d'incorporer un modèle de prévisions à haute résolution dans la vallée; nécessaire pour résoudre adéquatement l'orographie. Ceci est impératif pour la réussite de prévisions de PV. Ensuite, en utilisant un ensemble de données de vérification, on effectues des analyses de faisabilité et de précision du modèle, ce qui peut être utilise dans un bureau de prévisions. Finalement, une comparaison d'évènements de POZR variées démontre les forces et faiblesses dans les modèles de prévisions actuels. Ces derniers, couplés avec un nouveau modèle de prévision de PV, fourni au météorologues une opportunité de produire des prévisions de PV plus précises dans la VFSL.
54

A comparison study of precipitation forecasts from three numerical weather prediction systems

Surcel, Madalina January 2009 (has links)
Precipitation forecasts over the Continental US from three numerical weather prediction systems, the 4-km resolution, Storm Scale Ensemble Prediction System (SSEF), the 15-km resolution Global Environmental Multiscale (GEM) model and the 28-km resolution Weather Research and Forecasting (WRF) model, are compared and validated against radar observations for 24 precipitation cases between 16 April and 06 June 2008. The diversity of these systems allows the discussion of several issues: the representation of the diurnal cycle of precipitation in Numerical Weather Prediction (NWP) models, the importance of horizontal resolution for forecast accuracy, the effect of radar data assimilation and the advantage of performing ensemble forecasts rather than less costly, deterministic forecasts. The investigation is carried out through the analysis of statistical measures, skill scores and time-longitude diagrams of precipitation fields. An interesting finding of this study is that, during the study period, the diurnal variability of precipitation was influenced by a combination of weak thermal forcing and strong synoptic forcing, resulting in large scale precipitation systems consistent in terms of initiation timing and propagation characteristics. In addition, the radar observations showed much more consistency than the model forecasts. It is likely that timing and positioning errors led to larger spread of forecasted precipitation coverage and intensity throughout the time-longitude domain. None of the analysis presented here proved the superiority of the 4-km resolution models over the 15-km resolution GEM. It was however determined that radar data assimilation and ensemble prediction added value to the forecasts, mainly through the reduction of positional errors. / L'objectif de cette étude est l'évaluation des prévisions de précipitations aux États-Unis effectuées par trois systèmes de prévision numérique par rapport aux observations radars pour 24 jours entre le 16 avril et le 6 juin 2008. L'intérêt principal est de déterminer l'habileté des systèmes de prévision de reproduire le cycle diurne de précipitations. Les différences entre ces systèmes nous permettent d'apprécier l'importance de la résolution horizontale du modèle, de la prévision probabiliste et de l'assimilation des données radar. L'étude est effectuée par l'analyse des mesures statistiques et des diagrammes temps-longitude des champs de précipitations. Un résultat intéressant de ce travail est que, lors de la période d'étude, la variabilité diurne de précipitations a été influencée par une certaine combinaison des forçages synoptiques et thermiques. Donc, la plupart des systèmes observés ont les mêmes propriétés au niveau de l'initiation et de la propagation. D'ailleurs, les prévisions numériques n'ont pas réussi à reproduire ces propriétés. La variabilité observée dans les systèmes de précipitations générés par les modèles est possiblement causée par des erreurs de phase.L'analyse présentée dans ce mémoire ne démontre pas la supériorité des prévisions de précipitations à petite échelle. Cependant, l'assimilation des données radars et la prévision d'ensemble contribuent à l'amélioration des prévisions de précipitations.
55

Validation of new operational package for the Lagrangian diagnosis of stratosphere-troposphere exchange

Yamamoto, Ayako January 2012 (has links)
A new tool for the Lagrangian diagnosis of stratosphere-troposphere exchange (STE) was developed for Environment Canada and became operational in July 2010, providing unique, high-resolution daily forecasts of STE over the globe. This thesis offers a comprehensive validation of these STE forecasts in the context of an ozonesonde balloon campaign conducted at three locations in Eastern Canada from 12 July to 4 August 2010. The STE forecasts are calculated using a Lagrangian kinematic trajectory methodology based on the high-resolution global GEM model forecasts at Environment Canada. Both observations and the STE forecasts during this period showed much larger frequency of stratospheric air intrusions deep into the troposphere at all locations compared to past studies. The STE dataset compares reasonably well with the observations above 500 hPa, yet is found to underestimate the frequency of events reaching below 700 hPa level. Sources of error can possibly be introduced by (1) errors in the 6-day global GEM forecasts, (2) errors in the identification of air with stratospheric origin in observations, and/or (3) the lack of convective and turbulent mixing representation in the trajectory model. Despite these large sources of errors, the STE forecasts turn out to be one of the best datasets available for the STE studies, being useful to estimate the currently controversial STE contribution to the tropospheric ozone budget in the free troposphere as well as in the boundary layer. / Un nouvel outil de diagnostic d'échange stratosphère-troposphère (STE) a été développé pour Environment Canada et est devenu opérationnel en Juillet 2010, fournissant des prévisions quotidiennes de haute résolution à l'échelle globale. Cette thèse offre une validation complète des prévisions STE dans le contexte d'une campagne de ballons-sondes mesurant l'ozone, conduite à trois localisations dans l'Est du Canada du 12 Juillet au 4 Août 2010. Les prévisions STE sont calculées avec une méthode cinématique de trajectoires Lagrangiennes basée sur la sortie du modèle global à haute résolution GEM d'Environment Canada. Les observations et résultats du modèle montrent une fréquence d'intrusions profondes d'air stratosphérique bien plus grande que dans les études précédentes. Les données STE correspondent relativement bien aux observations au dessus de 500 hPa, mais elles sous-estiment la fréquence des évènements attaignant 700 hPa. Les sources d'erreurs sont possiblement: (1) des erreurs dans la prévision de GEM, (2) des erreurs dans l'identification de parcelle d'air d'origine stratosphérique et/ou (3) le manque de convection et de turbulence dans le modèle de trajectoire. Malgré ces sources d'erreurs, les données d'intrusions s'avèrent être une des meilleures sources disponible pour, entre autres, estimer la présente et controversée contribution stratosphérique au budget total d'ozone de la troposphère.
56

Canadian Prairie drought: Characteristics of precipitation at the surface and aloft with attendant atmospheric conditions for the summer months of 2001 and 2002

Evans, Erin January 2008 (has links)
Droughts can have a deleterious impact on many aspects of the environment and society. Severe drought can evoke catastrophic effects, degrading the success of numerous socioeconomic activities including agriculture and agri-food, hydro-electric power generation, and water resource management. The period from 2001 to 2002 was one such drought, which caused unprecedented loss on the Western Canadian Prairies, and had an economic impact felt on the national scale. In this study, the recent drought was characterized with respect to precipitation on a small scale at three sites: Calgary, Edmonton and Saskatoon. Climatologically, precipitation events of low daily accumulation (=10 mm day-1), called "light events", were found to be an important moisture source, accounting for a majority of the total accumulation at all three locations. During the recent drought, these low daily-accumulation events continued to occur, and in fact, contributed a higher proportion to the total precipitation amount due to the lack of heavy precipitation events. Using archived radar data, precipitation events were classified into three cases: convective, stratiform, and virga. The composite dynamic forcings for these three types of events were found to be distinct. Additionally, on a small scale, the surface wind analysis for cases of precipitation and of virga showed distinctions in wind direction, and a relation to topography was evident, especially at the Alberta locations. / La sécheresse peut avoir un impact désastreux sur l'environnement et la société. Une sécheresse importante peut provoquer des conséquences catastrophiques sur différentes activités socioéconomiques comme l'agriculture et l'agroalimentaire, la production hydroélectrique et la gestion des volumes d'eau. Une telle sécheresse a sévit entre 2001 et 2002 dans les prairies canadiennes où des pertes sans précédent ont affectées l'économie à la grandeur du pays. La présente étude caractérise les précipitations à petite échelle à trois endroits : Calgary, Edmonton et Saskatoon. Climatologiquement, les journées présentant de faible précipitation (= 10 mm jour -1) ont été identifiées comme une source importante de mouillure correspondant à la majorité de l'accumulation totale pour chacun des trois sites. Durant cette récente période de sécheresse, de faibles précipitations quotidiennes étaient toujours présentes, en fait, elles contribuaient à une plus grande proportion des précipitations totales en raison de l'absence de précipitations importantes. Les donnés radar archivées des précipitations furent classifiées en trois catégories : précipitation convective, précipitation stratiforme et virga. Des conditions atmosphériques caractéristiques étaient associées à chacun des types de précipitations. De plus, les dynamiques des forces composites se sont révélées distinctes. Aussi, à petite échelle, l'analyse des vents de surface lors des précipitations et virga a démontré des distinctions au niveau de la direction des vents ainsi qu'une relation évidente avec le relief topographique, particulièrement en Alberta.
57

Fiat lux: climatic considerations in medieval stained glass aesthetics

Simmons, Christopher January 2008 (has links)
As expressions of regional architecture built to last, sacred Gothic structures often possess several adaptations to their prevailing climate regime. However, the late medieval period in Europe is also marked by a transition to cooler and likely cloudier conditions. It is within the context of this climate change that we consider one of the most important considerations in Gothic churches—interior daylighting—during the transition from the Medieval Warm Period to the Little Ice Age. This thesis seeks to determine whether increasingly cloudy conditions over northern continental Europe may have influenced the use of more white glass in the Fourteenth century. With primary illuminance and luminance data collected in Europe, the results indicate that full-colour programs appear to perform best under sunny conditions, whereas later, white-dominated programs provide similar illumination under cloudy conditions. However, this high-translucency glazing is associated with limited lighting gains and major aesthetic drawbacks under sunny conditions. / Etant donné que les cathédrales gothiques ont été construites pour durer, plusieurs adaptations aux climats regionaux y ont été apportées. Cependant, la fin du Moyen Âge fut marquée par un changement climatique vers des conditions plus froides et probablement plus nuageuses en Europe du nord continentale. C'est donc dans ce contexte que nous cherchons à comprendre l'un des éléments les plus importants de l'architecture gothique—éclairage naturel intérieur—durant la transition entre la période chaude médiévale et le petit âge glaciaire. En particulier, cette thèse voudrait évaluer la relation entre l'utilisation de plus en plus fréquente du vitrail blanc durant le XIVème siècle d'un côté et le changement climatique d'un autre côté. Avec des données d'éclairement lumineux et de luminance lumineuse collectées dans plusieurs cathédrales en Europe, les résultats indiquent que les vitraux plein-colorés éclairent mieux l'interieur durant les journées ensoleillées. D'autre part, les vitraux incolorés du XIVème siècle fournissent un éclairage similaire durant les journées nuageuses, toutefois ils ne présentent que peu d'avantages dans des conditions plus ensoleillées, de plus l'utilisation du vitrail plus transparent produit des effets négatifs sur le plan esthétique.
58

Total Scan a full volume scanning strategy for weather radars

Jacques, Dominik January 2010 (has links)
The most common way to perform measurements with a weather radar is to have its antenna perform a complete rotation on itself at a number of elevations between 0 and 30◦. This scheme maximizes horizontal coverage, but it neglects a large conical volume above the radar, sometimes called the cone of silence. Here, we propose a 'Total' scanning strategy where the full volume surrounding a radar is being covered. / After a throughout review of assimilation methods, different applications of performing measurements at both high elevation and vertical incidence are demonstrated. Examples of time-height plots of vertical reflectivity, Doppler velocity, horizontal winds and divergence are shown. An attempt is made at vertical wind retrieval using a combination of Doppler velocity and differential reflectivity (ZDR). The calibration of ZDR and azimuthal ground echo contamination are also being shown. / The proposed scanning strategy can be applied to acquire additional information on weather systems passing over the radar site by adding to the common volume scans the advantages of vertically pointing radars and wind profilers. In the context of radar data assimilation into numerical models and/or analysis the proposed scanning strategy adds additional information without sacrificing time resolution if the time gained by eliminating scans of highly correlated data is used to fill the cone of silence. / La façon la plus conventionnelle d'utiliser un radar météo consiste a faire tourner l'antenne sur elle-même tout en pointant a un nombre prédéfini d'élévations entre 0 et 30◦. Si cette m ́ethode maximise la couverture horizontale, un considérable volume conique au dessus du radar se trouve négligé. Ici, nous proposons une stratégie de balayage 'Totale' où des mesures sont prises dans la totalité du volume entourant le radar. / Nous démontrons comment cette m ́ethode s'inscrit dans le cadre d'utilisation des données radar à des fins d'assimilation. Suite à une revue compète de l'évolution de ces techniques, nous faisons la démonstration de quelques unes des applications rendues possible par des mesures verticales et à hautes élévations. Des exemples de profils verticaux de réflectivité, de vitesse Doppler, de vents horizontaux et de divergence sont donnés et une tentative de mesure de la composante verticale du vent à partir d'une relation entre la réflectivité différentielle (ZDR) et la vitesse Doppler est faite. La calibration de ZDR est effectuée a partir de mesures verticales et nous démontrons comment les échos de sol peuvent êtres identifiés par des anomalies azimutales des mesures radar. / Ces quelques produits démontrent le potentiel de cette nouvelle stratégie de balayage. Des idées pour de nouvelles applications et l'implémentation future de cette stratégie sont finalement présentées.
59

The primal and dual forms of variational data assimilation in the presence of model error

El Akkraoui, Amal January 2010 (has links)
The aim of data assimilation is to find the optimal estimate of the state of the atmosphere at a given time using all the available observational data and the knowledge of the physical and dynamical laws that govern the system's motion. A variety of methods are used for this purpose, and most of them are based on statistical estimation theory, such as variational methods that are widely used in operational numerical weather prediction applications. Two forms can be used to solve the variational assimilation problem: the primal (3D/4D-Var) defined in the model space and the dual (3D/4D-PSAS) defined in the ``observation" space. Both variants are theoretically equivalent {\em at} convergence and in the linear case, are expected to have similar convergence properties. In this thesis, the equivalence is confirmed in an operational setting for the three and four dimensional cases, and the convergence properties are studied. While results at convergence confirm the theoretical equivalence, the convergence of the dual method exhibits a spurious behaviour at the beginning of the minimization which leads to less probable states than the background state, and it takes a number of iterations to retrieve states of comparable probability to that of the background state. This is worrisome since operational implementations can only afford a limited number of iterations. Investigation of this problem showed that it could be avoided by using a minimization scheme, such as the minimum residual (Minres) algorithm, that monotonically decreases the norm of the gradient instead of the functional itself. The iterates of a dual minimization with Minres lead to increasingly probable states. / A relationship is established showing that the primal functional is related to the value of the dual functional and the norm of its gradient. This holds for the incremental forms of both the three and four dimensional cases. / The intercomparison of the primal and dual forms is also examined in a two dimensional weak-constraint framework to account for model errors within the assimilation system. A dual form of the weak-constraint 4D-Var is formulated and results showed that both methods converge to the same solution and with similar convergence rates. As in the three and four dimensional cases, the dual algorithm is still sensitive to the choice of the minimization algorithm, and benefits from Minres properties to avoid the non-physical increments in the first iterations. / Singular vectors of primal and dual Hessians are used to improve the preconditioning of the minimization and to establish a connection between the Hessians which is key to cycling the dual Hessian to the next analysis window. / This holds also in the weak-constraint case and the significantly lower dimension of the control variable in the dual case may be beneficial then. This is an attractive proposition as the length of the assimilation window is extended. / L'objectif de l'assimilation de données est de trouver une estimation optimale de l'état de l'atmosphère à un moment donné en utilisant toute l'information disponible à travers et les observations et les connaissances sur les lois dynamiques et physiques qui gouvernent l'atmosphère. Différentes méthodes sont utilisées à cette fin, dont la majorité sont basées sur les principes de l'estimation statistique. Les méthodes variationnelles en sont un exemple et sont actuellement implémentées dans les grands centres de prévision numérique du temps. Deux formes peuvent être utilisées pour résoudre le problème d'assimilation variationnelle : la primale (3D/4D-Var) qui est définie dans l'espace du modèle et la duale (3D/4D-PSAS) qui est définie dans l'espace des observations. Les deux variantes sont en théorie équivalentes à la convergence et dans le cas linéaire, et sont supposées avoir un comportement de convergence similaire. Dans cette thèse, l'équivalence est confirmée dans un cadre opérationnel, et les propriétés de la convergence étudiées pour les cas tri- et quadri-dimensionnels (3D et 4D). / Alors que les résultats à la convergence confirment l'équivalence théorique, la convergence de la méthode duale présente un comportement étrange pendant les premières itérations de la minimisation, ce qui produit des états moins probables que l'ébauche et cela prend quelques iterations avant de retrouver des états dont la probabilité est comparable à celle de l'ébauche. Ce comportement est inquiétant puisque les implémentations opérationnelles ne peuvent se permettre qu'un nombre limité d'itérations. L'examen de ce problème a montré qu'il peut être évité en utilisant des schémas de minimisation tels que les méthodes à résidu minimum (Minres) qui réduisent monotoniquement la norme du gradient au lieu de la fonction objective elle même. Ainsi, les itérés de la minimisation duale avec Minres conduisent à des états de plus en plus probables. / Une relation est formulées montrant que la fonction primale est liée à la valeur de la fonction duale ainsi que celle de la norme de son gradient. Cela est valide pour les formes incrémentales dans les cas 3D et 4D. / Aussi, la comparaison entre les formes primale et duale a-t-elle été effectuée dans le cadre d'un système bi-dimensionnel en contrainte faible pour tenir compte des erreurs modèle dans le processus d'assimilation. Une forme duale du 4D-Var contrainte faible a été formulée et les résultats montrent que les deux méthodes convergent à la même solution et avec un taux de convergence similaire. Comme dans les autres cas précédents, l'algorithme dual est encore sensible au choix du minimiseur, et profite des propriétés de Minres pour éviter de produire des incréments non physiques pendant les premières itérations. / Les vecteurs singuliers des Hessiennes des méthodes primales et duales sont utilisés pour améliorer le pré-conditionnement de la minimisation et pour établir un lien entre les Hessiennes, ce qui s'avère être déterminant dans la solution de cyclage de la Hessienne duale à la fenêtre d'assimilation suivante. Cette propriété reste aussi valide dans le cas de la contrainte faible où la dimension réduite de la variable de contrôle dans le cas dual peut être bénéfique. Cela est d'autant plus intéressant que la fenêtre d'assimilation est appelée à s'élargir.
60

North Atlantic tropical cyclogenesis potential in climate change: An application of artificial neural networks

Yip, Zheng January 2010 (has links)
A new methodology employing artificial neural networks is used to project changes in North Atlantic tropical cyclone (TC) genesis potential (GP) and potential intensity (PI) in warming climate. The input data is from simulations of 5 climate models. Emanuel's revised Genesis Potential Index is used to measure the GP. Changes are identified in the 1st (P1) and 2nd (P2) half of the 21st century. The early and late summer GP decreases throughout the 21st century over most of the eastern half of the basin and increases off the east coast of USA and the north coast of Venezuela during P1. The peak summer GP over the region of frequent TC genesis is projected to decrease more substantially in P1 than in P2. PI changes are generally positive and more apparent over the western half of the basin. Vertical wind shear (850-200hPa), temperature (600hPa), and PI are the most important controls of TC genesis in the NAB under changing climate. / Nous présentons une nouvelle approche à base de réseaux de neurones artificiels pour étudier les changem ents que connaîtraient le potentiel de formation (PF) et l'intensité potentielle (IP) des cyclones tropicaux dans le Bassin de l'Atlantique Nord, dans un futur réchauffement climatique. Les données utilisées sont issues de simulations de 5 modèles climatiques. L'indice de Potentiel de Formation révisé par Emanuel est utilisé pour évaluer le PF des cyclones. Des changements sont identifiés pour la 1ère (P1) et 2ème (P2) moitié du 21ème siècle. Le PF en début et fin d'été diminue au cours du 21ème siècle sur la majeure partie de la moitié est du bassin, alors qu'il augmente au large de la côte est des États-Unis et au large de la côte nord du Venezuela pendant P1. Le point culminant du PF estival au-dessus de la région où génération de cyclones tropicaux est fréquente est projetée à diminuer plus nettement pendant P1 que P2. Les changements que connaîtrait l'IP sont généralement positifs et plus marqués sur la moitié ouest du bassin. Le cisaillement des vents verticaux (850-200hPa), la température (600hPa) et l'intensité potentielle sont, dans un contexte de changement climatique, les facteurs les plus importants dans la formation de cyclones tropicaux dans le Bassin de l'Atlantique Nord.

Page generated in 0.5062 seconds