• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 101
  • 101
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Analyse des embâcles de glace sur le fleuve Saint-Laurent lors de l'hiver 2018-2019 et développement d'un outil d'évaluation des risques d'embâcles

Scalabrini, Philippe 13 December 2023 (has links)
Durant les mois de janvier et février 2019, trois embâcles ont forcé l'arrêt de la navigation commerciale vers le Port de Montréal. Ce mémoire présente les conditions météorologiques associées aux embâcles sur le fleuve Saint-Laurent de l'hiver 2018-2019. Il explique que les embâcles se développent à la suite d'arrêts de glace dans le bief problématique du lac Saint-Pierre entre la courbe Louiseville et le bassin Yamachiche. Pour ce faire, l'étude considère la production de glace en amont jusqu'au lac Saint-Louis. Il explique pourquoi ce bief est si vulnérable à l'initiation d'embâcles en présentant les neuf concepts de vulnérabilité du lac Saint-Pierre. De plus, il propose quatorze recommandations concrètes pour améliorer la fiabilité de navigation hivernale en réduisant les risques d'embâcles. En considérant ces recommandations, différentes opportunités de télédétection et une interface utilisateur sont présentées. L'opportunité de télédétection introduit la possibilité d'usage d'images de RADARSAT Constellation Mission et de photographies par drone afin d'évaluer des éléments clés comme la progression du couvert de glace, la largeur effective du chenal, la concentration de glace en transit et la vitesse de la glace. L'interface est un prototype d'outil d'aide à la décision de source libre qui permet d'obtenir d'autres informations quantitatives sur les risques d'arrêts de glace et du même fait, d'embâcles de glace. / In January and February 2019, three ice jams blocked commercial navigation to the Port of Montreal. This thesis presents the environmental conditions associated with the ice jams of winter 2018-2019 on the Saint Lawrence River. It explains how the ice jams develop when an ice stoppage prevents the circulation of ice floes downstream. It focusses on the area that is most at risk of ice jams in the St. Lawrence River reach known as Lake St. Pierre (specifically between curve Louiseville and the Yamachiche basin). The study also accounts for the ice production in the river upstream (all the way to Lake St. Louis). To do so, ice processes, historical information and ice management structures are analysed, and the vulnerability of the area is presented by discussing nine key concepts. Using this information, 14 recommendations are proposed to improve the reliability of commercial winter navigation and to reduce the risks of ice jams. Considering there commendations, different opportunities of remote sensing and of a data assimilation management tool are presented. The opportunity for remote sensing introduces the possibility of using the images of RADARSAT Constellation Mission and drone photography to evaluate critical elements like the ice cover progression, the effective channel width, ice concentration and ice speed. A data assimilation management tool is proposed using an open-source decision support system. The tool provides quantitative information about the risks of ice stoppages and ice jams as a function of degrading weather and hydro-cryological conditions.
62

Adéquation du modèle de socialisation à la consommation appliquée au domaine de l'épargne et invariance selon le mode de collecte de données

Cloutier, Jacinthe 18 April 2018 (has links)
La venue de l'Internet engendre chez les chercheurs des préoccupations à l'égard de possibles biais liés au choix du mode de collecte de données. La présente recherche consiste à vérifier l'adéquation aux données du modèle de socialisation à la consommation (Moschis & Churchill, 1978) appliqué au domaine de l'épargne et d'effectuer une comparaison des résultats obtenus au selon le mode de collecte de données (téléphone ou Internet). Le modèle de socialisation à la consommation regroupe les influences de différentes variables socioéconomiques ainsi que d'agents de socialisation (parents, pairs, médias, école, etc.) sur l'apprentissage de connaissances, de comportements ou d'attitudes en matière de consommation chez les jeunes. Cette recherche comporte deux volets : (a) l'adéquation du modèle de socialisation à la consommation est vérifiée à l'aide d'analyses acheminatoires basées sur les équations structurelles et (b) des analyses par équations structurelles pour vérifier l'invariance du modèle selon le mode de collecte de données sont effectuées. Les données utilisées proviennent d'une étude plus large qui visait à mesurer différents concepts liés aux compétences en matière d'épargne. Un total de 1 366 jeunes adultes québécois âgés entre 18 et 29 ans a complété un questionnaire (téléphone : n = 400 [221 femmes, 179 hommes]; Internet : n = 966 [652 femmes, 314 hommes]). Les résultats obtenus au premier volet indiquent d'abord un bon ajustement du modèle de socialisation à la consommation aux données. Le niveau de compétence des jeunes adultes en matière d'épargne est défini en grande partie par leurs comportements. De plus, parmi les deux sources d'influence, ce sont celles non spécialisées (parents, amis, collègues) qui les incitent le plus à épargner. Au Volet 2, un seul lien diffère d'amplitude selon le mode de collecte de données, soit celui reliant les sources d'influence non spécialisées au facteur latent « compétence ». Une explication possible de ces variations selon le mode de collecte de données est qu'elles seraient causées par les différences observées sur le plan du profil des deux échantillons plutôt que par le modèle.
63

L'étendue et l'abondance en Amérique du Nord de plantes exotiques : explication par l'aire de répartition d'origine eurasiatique

Blanchette-Forget, Noémie 12 November 2024 (has links)
Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l'avance si une nouvelle espèce introduite deviendra envahissante. Afin d'en arriver à un outil d'aide à la décision facile d'utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l'aire de répartition d'origine eurasiatique avec l'abondance et l'étendue de l'aire de répartition d'introduction en Amérique du Nord. La variable explicative principale, l'aire de répartition d'origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l'échelle d'un pays entier, les États-Unis, et à une échelle plus régionale. L'utilisation de spécimens d'herbier et d'autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d'espèces (N = 481). Les modèles ont révélé qu'avec peu de variables explicatives, il est possible d'expliquer une proportion importante du phénomène d'envahissement et d'abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d'un outil d'aide à la décision simple et démontre qu'il est possible d'expliquer une partie importante le phénomène d'abondance et d'étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.
64

Minimisation de la gigue d'échantillonnage d'un spectromètre à transformée de Fourier imageur à détecteur intégrateur en présence de perturbations mécaniques

Déry, Jean-Philippe 18 April 2018 (has links)
Le développement des spectromètres par transformée de Fourier (FTS) a connu un essor important en bénéficiant de l'attention de nombreux groupes de recherche à travers le monde depuis les années 1960 (bien que cet instrument existait déjà bien avant), résultant dans la connaissance approfondie que nous en avons aujourd'hui. Dans les années 1990 et 2000, l'augmentation grandissante des performances des caméras à intégration (de type «charge-coupled device» (CCD) ou autre) a permis la croissance accélérée de la technologie FTS imageur, combinant ainsi l'information spatiale à l'information spectrale, et ouvrant la porte à de nouvelles applications pour cet instrument de pointe. Mise à part la quantité phénoménale de données produite par un tel instrument, certains aspects fondamentaux de l'appareil, bien caractérisés pour les instruments mono-pixel, méritent une nouvelle analyse lorsqu'un détecteur de type intégrateur est utilisé. Ce mémoire de maîtrise se concentre sur l'un de ces éléments : la minimisation de la gigue d'échantillonnage des données acquises en présence de perturbations mécaniques. Cette gigue étant principalement due aux variations de vitesse du chariot du miroir en mouvement dans l'instrument, la qualité de l'information de position et de vitesse est tout d'abord améliorée afin d'obtenir un estimé plus précis de l'état du chariot. Puis, sur la base de cette connaissance fiable, deux approches générales sont analysées. Dans un premier temps, une approche de réduction de la gigue d'échantillonnage a priori (soit avant l'intégration intrinsèque à l'acquisition avec une caméra) est abordée et les performances de trois méthodes de génération des instants d'échantillonnage sont comparées, à la fois en simulation et via leur implantation dans un système réel. Dans un deuxième temps, deux algorithmes de ré-échantillonnage sont utilisés afin de corriger la grille d'échantillonnage a posteriori, soit avec la connaissance de la position d'échantillonnage du signal telle qu'estimée par le laser de référence. Pour terminer, l'analyse combinée des résultats fait ressortir la meilleure approche globale et les ressources technologiques requises pour l'implémenter.
65

Analyse de l'exposition aux ondes électromagnétiques des enfants dans le cadre des nouveaux usages et nouveaux réseaux

Ghanmi, Amal 06 March 2013 (has links) (PDF)
Dans un contexte d'évolution incessante des moyens de communications sans fil, les inquiétudes perdurent malgré les législations existantes. L'accroissement d'usages divers et variés des téléphones mobiles impliquent des questionnements sur l'exposition induite par ces nouveaux usages. Ce manuscrit permet d'enrichir les connaissances en dosimétrie numérique en prenant en considération la variabilité des conditions d'utilisation. Pour une évaluation précise de l'exposition, la méthode des Différences Finies dans le Domaine Temporel (FDTD) qui a prouvé son efficacité, est employée. L'objectif est de quantifier précisément le Débit d'Absorption Spécifique (DAS) induit dans des organes comme le cerveau et les organes reproducteurs. Dans cette analyse, une attention particulière sera portée sur les usages potentiels des téléphones portables par les enfants. Le choix des configurations couvre différentes technologies, usages et bandes de fréquences permettant d'étudier la sensibilité du DAS à la variabilité de ces paramètres, pour une meilleure maîtrise de l'exposition réelle, au-delà du problème de la conformité. Le nombre important des variables oblige à simplifier les modèles de simulation par la construction de méta-modèles statistiques afin de réduire les coûts de calcul. La méthode spectrale par Chaos Polynomial (CP) dédiée à la gestion des incertitudes et à l'analyse de sensibilité est adoptée pour la mise en place d'un modèle approché du DAS. Afin d'aboutir à une représentation par CP fiable et peu coûteuse en termes de simulations, l'utilisation par CP creux et adaptatif est appliquée. Seuls les termes les plus significatifs sont retenus dans la décomposition par CP. Cette approche est appliquée aux problèmes en dosimétrie numérique afin de propager les incertitudes portant sur les paramètres d'entrée dans les simulations et de quantifier l'impact de ces incertitudes sur l'exposition (e.g. impact de la localisation du téléphone sur la dispersion du DAS) avec un faible coût de calcul
66

Three Essays in Functional Time Series and Factor Analysis

Nisol, Gilles 20 December 2018 (has links) (PDF)
The thesis is dedicated to time series analysis for functional data and contains three original parts. In the first part, we derive statistical tests for the presence of a periodic component in a time series of functions. We consider both the traditional setting in which the periodic functional signal is contaminated by functional white noise, and a more general setting of a contaminating process which is weakly dependent. Several forms of the periodic component are considered. Our tests are motivated by the likelihood principle and fall into two broad categories, which we term multivariate and fully functional. Overall, for the functional series that motivate this research, the fully functional tests exhibit a superior balance of size and power. Asymptotic null distributions of all tests are derived and their consistency is established. Their finite sample performance is examined and compared by numerical studies and application to pollution data. In the second part, we consider vector autoregressive processes (VARs) with innovations having a singular covariance matrix (in short singular VARs). These objects appear naturally in the context of dynamic factor models. The Yule-Walker estimator of such a VAR is problematic, because the solution of the corresponding equation system tends to be numerically rather unstable. For example, if we overestimate the order of the VAR, then the singularity of the innovations renders the Yule-Walker equation system singular as well. Moreover, even with correctly selected order, the Yule-Walker system tends be close to singular in finite sample. We show that this has a severe impact on predictions. While the asymptotic rate of the mean square prediction error (MSPE) can be just like in the regular (non-singular) case, the finite sample behavior is suffering. This effect turns out to be particularly dramatic in context of dynamic factor models, where we do not directly observe the so-called common components which we aim to predict. Then, when the data are sampled with some additional error, the MSPE often gets severely inflated. We explain the reason for this phenomenon and show how to overcome the problem. Our numerical results underline that it is very important to adapt prediction algorithms accordingly. In the third part, we set up theoretical foundations and a practical method to forecast multiple functional time series (FTS). In order to do so, we generalize the static factor model to the case where cross-section units are FTS. We first derive a representation result. We show that if the first r eigenvalues of the covariance operator of the cross-section of n FTS are unbounded as n diverges and if the (r+1)th eigenvalue is bounded, then we can represent the each FTS as a sum of a common component driven by r factors and an idiosyncratic component. We suggest a method of estimation and prediction of such a model. We assess the performances of the method through a simulation study. Finally, we show that by applying our method to a cross-section of volatility curves of the stocks of S&P100, we have a better prediction accuracy than by limiting the analysis to individual FTS. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
67

Développement d'algorithmes de détection et d'identification gamma : application à la spectrométrie gamma embarquée / Embedded gamma spectrometry : development of gamma detection and identification algorithms

Wilhelm, Emilien 24 November 2016 (has links)
Depuis le début des années 1980, le Commissariat à l’Énergie Atomique développe et met en oeuvre un système de spectrométrie gamma aéroportée, appelé HELINUCTM. Ce système, composé de détecteurs NaI(Tl) d’un volume de 16 L, est utilisé afin d’établir un état des lieux radiologique des sites survolés. Les principales missions du système HELINUC consistent en la réalisation de contrôles environnementaux, l’intervention en situation de crise et la recherche de sources ponctuelles. La réalisation de ces missions nécessite le développement de méthodes d’analyse adaptées. L’approche considérée dans cette thèse repose sur une rupture conceptuelle de l’analyse des spectres par rapport aux méthodes utilisées jusqu’alors au CEA : l’analyse ne repose plus sur une considération individuelle et séquentielle des mesures aéroportées, mais sur une considération globale et simultanée de celles-ci. L’étude et le développement de méthodes statistiques adaptées à la quantification des radionucléides naturels et du 137Cs (de 600 keV à 3 MeV), à l’estimation de la contamination en 241Am (basse énergie, inférieure à100 keV) en cas de crise radiologique et la détection de sources ponctuelles (moyenne énergie, entre 100 keV et600 keV) permettent d’améliorer la précision sur les activités déterminées en vol et la détection de sources de faibles activités. / Since the beginning of 1980’s, the CEA has been developing an airborne gamma spectrometry (AGS) system called HELINUCTM using large volume (16 L) NaI(Tl) detectors. HELINUC is used to produce radioactivity mapping of the soil. The different missions of HELINUC are environmental control of radioactivity, nuclear emergency response and research of orphan sources. The continuous development of analysis methods is then required.The approach considered in this thesis is based on a conceptual break from the analysis of spectra compared to the methods used at the CEA until now: the analysis does not rely on an individual and sequential consideration of airborne measurements, but on an overall and simultaneous consideration of them. The study and development of statistical methods for the quantification of natural radionuclides and 137Cs (from 600 keV to 3 MeV), for the estimation of 241Am contamination (low energy, inferior to 100 keV) in case of radiological emergency and for the detection of orphan sources (medium energy, between 100 keV and 600 keV) improve the accuracy of activities estimation and detection of low activities sources.
68

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral / Statistical methods for a oral human-machine dialog system

Pinault, Florian 24 November 2011 (has links)
Les systèmes de dialogue homme machine actuellement utilisés dans l’industrie sont fortement limités par une forme de communication très rigide imposant à l’utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l’état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d’utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l’utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d’erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d’apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d’utiliser.Afin d’appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l’espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l’espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d’utiliser la distance d’édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l’adoption des POMDP pour le dialogue dans l’industrie.Dans le domaine du renseignement d’informations touristiques et de la réservation de chambres d’hôtel, les résultats sur des dialogues simulés montrent l’efficacité de l’approche par renforcement associée à un système de règles pour s’adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu’un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé. / Dialog managers (DM) in spoken dialogue systems make decisions in highly uncertain conditions, due to errors from the speech recognition and spoken language understanding (SLU) modules. In this work a framework to interface efficient probabilistic modeling for both the SLU and the DM modules is described and investigated. Thorough representation of the user semantics is inferred by the SLU in the form of a graph of frames and, complemented with some contextual information, is mapped to a summary space in which a stochastic POMDP dialogue manager can perform planning of actions taking into account the uncertainty on the current dialogue state. Tractability is ensured by the use of an intermediate summary space. Also to reduce the development cost of SDS an approach based on clustering is proposed to automatically derive the master-summary mapping function. A implementation is presented in the Media corpus domain (touristic information and hotel booking) and tested with a simulated user.
69

Exploration d'approches statistiques pour le résumé automatique de texte

Boudin, Florian 05 December 2008 (has links) (PDF)
Un résumé est un texte reformulé dans un espace plus réduit. Il doit exprimer avec un minimum de mots le contenu essentiel d'un document. Son but est d'aider le lecteur à repérer les informations qui peuvent l'intéresser sans pour autant devoir lire le document en entier. Mais pourquoi avons-nous tant besoin de résumés? Simplement parce que nous ne disposons pas d'assez de temps et d'énergie pour tout lire. La masse d'information textuelle sous forme électronique ne cesse d'augmenter, que ce soit sur Internet ou dans les réseaux des entreprises. Ce volume croissant de textes disponibles rend difficile l'accès à l'information désirée sans l'aide d'outils spécifiques. Produire un résumé est une tâche très complexe car elle nécessite des connaissances linguistiques ainsi que des connaissances du monde qui restent très difficiles à incorporer dans un système automatique. Dans cette thèse de doctorat, nous explorons la problématique du résumé automatique par le biais de trois méthodes statistiques permettant chacune la production de résumés répondant à une tâche différente.<br /><br />Nous proposons une première approche pour la production de résumé dans le domaine spécialisé de la Chimie Organique. Un prototype nommé YACHS a été déve- loppé pour démontrer la viabilité de notre approche. Ce système est composé de deux modules, le premier applique un pré-traitement linguistique particulier afin de tenir compte de la spécificité des documents de Chimie Organique tandis que le second sélectionne et assemble les phrases à partir de critères statistiques dont certains sont spécifiques au domaine. Nous proposons ensuite une approche répondant à la problématique du résumé automatique multi-documents orienté par une thématique. Nous détaillons les adaptations apportées au système de résumé générique Cortex ainsi que les résultats observés sur les données des campagnes d'évaluation DUC. Les résultats obtenus par la soumission du LIA lors des participations aux campagnes d'évaluations DUC 2006 et DUC 2007 sont discutés. Nous proposons finalement deux méthodes pour la génération de résumés mis-à-jour. La première approche dite de maximisation- minimisation a été évaluée par une participation à la tâche pilote de DUC 2007. La seconde méthode est inspirée de Maximal Marginal Relevance (MMR), elle a été évaluée par plusieurs soumissions lors de la campagne TAC 2008.
70

Analyse propabiliste régionale des précipitations : prise en compte de la variabilité et du changement climatique

Sun, Xun 28 October 2013 (has links) (PDF)
Les événements de pluies extrêmes et les inondations qui en résultent constituent une préoccupation majeure en France comme dans le monde. Dans le domaine de l'ingénierie, les méthodes d'analyse probabiliste sont pratiquement utilisées pour prédire les risques, dimensionner des ouvrages hydrauliques et préparer l'atténuation. Ces méthodes sont classiquement basées sur l'hypothèse que les observations sont identiquement distribuées. Il y a aujourd'hui de plus en plus d'éléments montrant que des variabilités climatiques à grande échelle (par exemple les oscillations El Niño - La Niña, cf. indice ENSO) ont une influence significative sur les précipitations dans le monde. Par ailleurs, les effets attendus du changement climatique sur le cycle de l'eau remettent en question l'hypothèse de variables aléatoires "identiquement distribuées" dans le temps. Il est ainsi important de comprendre et de prédire l'impact de la variabilité et du changement climatique sur l'intensité et la fréquence des événements hydrologiques, surtout les extrêmes. Cette thèse propose une étape importante vers cet objectif, en développant un cadre spatio-temporel d'analyse probabiliste régionale qui prend en compte les effets de la variabilité climatique sur les événements hydrologiques. Les données sont supposées suivre une distribution, dont les paramètres sont liés à des variables temporelles et/ou spatiales à l'aide de modèles de régression. Les paramètres sont estimés avec une méthode de Monte-Carlo par Chaînes de Markov dans un cadre Bayésien. La dépendance spatiale des données est modélisée par des copules. Les outils de comparaison de modèles sont aussi intégrés. L'élaboration de ce cadre général de modélisation est complétée par des simulations Monte-Carlo pour évaluer sa fiabilité. Deux études de cas sont effectuées pour confirmer la généralité, la flexibilité et l'utilité du cadre de modélisation pour comprendre et prédire l'impact de la variabilité climatique sur les événements hydrologiques. Ces cas d'études sont réalisés à deux échelles spatiales distinctes: * Echelle régionale: les pluies d'été dans le sud-est du Queensland (Australie). Ce cas d'étude analyse l'impact de l'oscillation ENSO sur la pluie totale et la pluie maximale d'été. En utilisant un modèle régional, l'impact asymétrique de l'ENSO est souligné: une phase La Niña induit une augmentation significative sur la pluie totale et maximale, alors qu'une phase El Niño n'a pas d'influence significative. * Echelle mondiale: une nouvelle base de données mondiale des précipitations extrêmes composée de 11588 stations pluviométriques est utilisée pour analyser l'impact des oscillations ENSO sur les précipitations extrêmes mondiales. Cette analyse permet d'apprécier les secteurs où ENSO a un impact sur les précipitations à l'échelle mondiale et de quantifier son impact sur les estimations de quantiles extrêmes. Par ailleurs, l'asymétrie de l'impact ENSO et son caractère saisonnier sont également évalués.

Page generated in 0.0873 seconds