• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 99
  • 99
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Analyse de l'exposition aux ondes électromagnétiques des enfants dans le cadre des nouveaux usages et nouveaux réseaux

Ghanmi, Amal 06 March 2013 (has links) (PDF)
Dans un contexte d'évolution incessante des moyens de communications sans fil, les inquiétudes perdurent malgré les législations existantes. L'accroissement d'usages divers et variés des téléphones mobiles impliquent des questionnements sur l'exposition induite par ces nouveaux usages. Ce manuscrit permet d'enrichir les connaissances en dosimétrie numérique en prenant en considération la variabilité des conditions d'utilisation. Pour une évaluation précise de l'exposition, la méthode des Différences Finies dans le Domaine Temporel (FDTD) qui a prouvé son efficacité, est employée. L'objectif est de quantifier précisément le Débit d'Absorption Spécifique (DAS) induit dans des organes comme le cerveau et les organes reproducteurs. Dans cette analyse, une attention particulière sera portée sur les usages potentiels des téléphones portables par les enfants. Le choix des configurations couvre différentes technologies, usages et bandes de fréquences permettant d'étudier la sensibilité du DAS à la variabilité de ces paramètres, pour une meilleure maîtrise de l'exposition réelle, au-delà du problème de la conformité. Le nombre important des variables oblige à simplifier les modèles de simulation par la construction de méta-modèles statistiques afin de réduire les coûts de calcul. La méthode spectrale par Chaos Polynomial (CP) dédiée à la gestion des incertitudes et à l'analyse de sensibilité est adoptée pour la mise en place d'un modèle approché du DAS. Afin d'aboutir à une représentation par CP fiable et peu coûteuse en termes de simulations, l'utilisation par CP creux et adaptatif est appliquée. Seuls les termes les plus significatifs sont retenus dans la décomposition par CP. Cette approche est appliquée aux problèmes en dosimétrie numérique afin de propager les incertitudes portant sur les paramètres d'entrée dans les simulations et de quantifier l'impact de ces incertitudes sur l'exposition (e.g. impact de la localisation du téléphone sur la dispersion du DAS) avec un faible coût de calcul
62

Three Essays in Functional Time Series and Factor Analysis

Nisol, Gilles 20 December 2018 (has links) (PDF)
The thesis is dedicated to time series analysis for functional data and contains three original parts. In the first part, we derive statistical tests for the presence of a periodic component in a time series of functions. We consider both the traditional setting in which the periodic functional signal is contaminated by functional white noise, and a more general setting of a contaminating process which is weakly dependent. Several forms of the periodic component are considered. Our tests are motivated by the likelihood principle and fall into two broad categories, which we term multivariate and fully functional. Overall, for the functional series that motivate this research, the fully functional tests exhibit a superior balance of size and power. Asymptotic null distributions of all tests are derived and their consistency is established. Their finite sample performance is examined and compared by numerical studies and application to pollution data. In the second part, we consider vector autoregressive processes (VARs) with innovations having a singular covariance matrix (in short singular VARs). These objects appear naturally in the context of dynamic factor models. The Yule-Walker estimator of such a VAR is problematic, because the solution of the corresponding equation system tends to be numerically rather unstable. For example, if we overestimate the order of the VAR, then the singularity of the innovations renders the Yule-Walker equation system singular as well. Moreover, even with correctly selected order, the Yule-Walker system tends be close to singular in finite sample. We show that this has a severe impact on predictions. While the asymptotic rate of the mean square prediction error (MSPE) can be just like in the regular (non-singular) case, the finite sample behavior is suffering. This effect turns out to be particularly dramatic in context of dynamic factor models, where we do not directly observe the so-called common components which we aim to predict. Then, when the data are sampled with some additional error, the MSPE often gets severely inflated. We explain the reason for this phenomenon and show how to overcome the problem. Our numerical results underline that it is very important to adapt prediction algorithms accordingly. In the third part, we set up theoretical foundations and a practical method to forecast multiple functional time series (FTS). In order to do so, we generalize the static factor model to the case where cross-section units are FTS. We first derive a representation result. We show that if the first r eigenvalues of the covariance operator of the cross-section of n FTS are unbounded as n diverges and if the (r+1)th eigenvalue is bounded, then we can represent the each FTS as a sum of a common component driven by r factors and an idiosyncratic component. We suggest a method of estimation and prediction of such a model. We assess the performances of the method through a simulation study. Finally, we show that by applying our method to a cross-section of volatility curves of the stocks of S&P100, we have a better prediction accuracy than by limiting the analysis to individual FTS. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
63

Développement d'algorithmes de détection et d'identification gamma : application à la spectrométrie gamma embarquée / Embedded gamma spectrometry : development of gamma detection and identification algorithms

Wilhelm, Emilien 24 November 2016 (has links)
Depuis le début des années 1980, le Commissariat à l’Énergie Atomique développe et met en oeuvre un système de spectrométrie gamma aéroportée, appelé HELINUCTM. Ce système, composé de détecteurs NaI(Tl) d’un volume de 16 L, est utilisé afin d’établir un état des lieux radiologique des sites survolés. Les principales missions du système HELINUC consistent en la réalisation de contrôles environnementaux, l’intervention en situation de crise et la recherche de sources ponctuelles. La réalisation de ces missions nécessite le développement de méthodes d’analyse adaptées. L’approche considérée dans cette thèse repose sur une rupture conceptuelle de l’analyse des spectres par rapport aux méthodes utilisées jusqu’alors au CEA : l’analyse ne repose plus sur une considération individuelle et séquentielle des mesures aéroportées, mais sur une considération globale et simultanée de celles-ci. L’étude et le développement de méthodes statistiques adaptées à la quantification des radionucléides naturels et du 137Cs (de 600 keV à 3 MeV), à l’estimation de la contamination en 241Am (basse énergie, inférieure à100 keV) en cas de crise radiologique et la détection de sources ponctuelles (moyenne énergie, entre 100 keV et600 keV) permettent d’améliorer la précision sur les activités déterminées en vol et la détection de sources de faibles activités. / Since the beginning of 1980’s, the CEA has been developing an airborne gamma spectrometry (AGS) system called HELINUCTM using large volume (16 L) NaI(Tl) detectors. HELINUC is used to produce radioactivity mapping of the soil. The different missions of HELINUC are environmental control of radioactivity, nuclear emergency response and research of orphan sources. The continuous development of analysis methods is then required.The approach considered in this thesis is based on a conceptual break from the analysis of spectra compared to the methods used at the CEA until now: the analysis does not rely on an individual and sequential consideration of airborne measurements, but on an overall and simultaneous consideration of them. The study and development of statistical methods for the quantification of natural radionuclides and 137Cs (from 600 keV to 3 MeV), for the estimation of 241Am contamination (low energy, inferior to 100 keV) in case of radiological emergency and for the detection of orphan sources (medium energy, between 100 keV and 600 keV) improve the accuracy of activities estimation and detection of low activities sources.
64

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral / Statistical methods for a oral human-machine dialog system

Pinault, Florian 24 November 2011 (has links)
Les systèmes de dialogue homme machine actuellement utilisés dans l’industrie sont fortement limités par une forme de communication très rigide imposant à l’utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l’état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d’utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l’utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d’erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d’apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d’utiliser.Afin d’appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l’espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l’espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d’utiliser la distance d’édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l’adoption des POMDP pour le dialogue dans l’industrie.Dans le domaine du renseignement d’informations touristiques et de la réservation de chambres d’hôtel, les résultats sur des dialogues simulés montrent l’efficacité de l’approche par renforcement associée à un système de règles pour s’adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu’un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé. / Dialog managers (DM) in spoken dialogue systems make decisions in highly uncertain conditions, due to errors from the speech recognition and spoken language understanding (SLU) modules. In this work a framework to interface efficient probabilistic modeling for both the SLU and the DM modules is described and investigated. Thorough representation of the user semantics is inferred by the SLU in the form of a graph of frames and, complemented with some contextual information, is mapped to a summary space in which a stochastic POMDP dialogue manager can perform planning of actions taking into account the uncertainty on the current dialogue state. Tractability is ensured by the use of an intermediate summary space. Also to reduce the development cost of SDS an approach based on clustering is proposed to automatically derive the master-summary mapping function. A implementation is presented in the Media corpus domain (touristic information and hotel booking) and tested with a simulated user.
65

Exploration d'approches statistiques pour le résumé automatique de texte

Boudin, Florian 05 December 2008 (has links) (PDF)
Un résumé est un texte reformulé dans un espace plus réduit. Il doit exprimer avec un minimum de mots le contenu essentiel d'un document. Son but est d'aider le lecteur à repérer les informations qui peuvent l'intéresser sans pour autant devoir lire le document en entier. Mais pourquoi avons-nous tant besoin de résumés? Simplement parce que nous ne disposons pas d'assez de temps et d'énergie pour tout lire. La masse d'information textuelle sous forme électronique ne cesse d'augmenter, que ce soit sur Internet ou dans les réseaux des entreprises. Ce volume croissant de textes disponibles rend difficile l'accès à l'information désirée sans l'aide d'outils spécifiques. Produire un résumé est une tâche très complexe car elle nécessite des connaissances linguistiques ainsi que des connaissances du monde qui restent très difficiles à incorporer dans un système automatique. Dans cette thèse de doctorat, nous explorons la problématique du résumé automatique par le biais de trois méthodes statistiques permettant chacune la production de résumés répondant à une tâche différente.<br /><br />Nous proposons une première approche pour la production de résumé dans le domaine spécialisé de la Chimie Organique. Un prototype nommé YACHS a été déve- loppé pour démontrer la viabilité de notre approche. Ce système est composé de deux modules, le premier applique un pré-traitement linguistique particulier afin de tenir compte de la spécificité des documents de Chimie Organique tandis que le second sélectionne et assemble les phrases à partir de critères statistiques dont certains sont spécifiques au domaine. Nous proposons ensuite une approche répondant à la problématique du résumé automatique multi-documents orienté par une thématique. Nous détaillons les adaptations apportées au système de résumé générique Cortex ainsi que les résultats observés sur les données des campagnes d'évaluation DUC. Les résultats obtenus par la soumission du LIA lors des participations aux campagnes d'évaluations DUC 2006 et DUC 2007 sont discutés. Nous proposons finalement deux méthodes pour la génération de résumés mis-à-jour. La première approche dite de maximisation- minimisation a été évaluée par une participation à la tâche pilote de DUC 2007. La seconde méthode est inspirée de Maximal Marginal Relevance (MMR), elle a été évaluée par plusieurs soumissions lors de la campagne TAC 2008.
66

Analyse propabiliste régionale des précipitations : prise en compte de la variabilité et du changement climatique

Sun, Xun 28 October 2013 (has links) (PDF)
Les événements de pluies extrêmes et les inondations qui en résultent constituent une préoccupation majeure en France comme dans le monde. Dans le domaine de l'ingénierie, les méthodes d'analyse probabiliste sont pratiquement utilisées pour prédire les risques, dimensionner des ouvrages hydrauliques et préparer l'atténuation. Ces méthodes sont classiquement basées sur l'hypothèse que les observations sont identiquement distribuées. Il y a aujourd'hui de plus en plus d'éléments montrant que des variabilités climatiques à grande échelle (par exemple les oscillations El Niño - La Niña, cf. indice ENSO) ont une influence significative sur les précipitations dans le monde. Par ailleurs, les effets attendus du changement climatique sur le cycle de l'eau remettent en question l'hypothèse de variables aléatoires "identiquement distribuées" dans le temps. Il est ainsi important de comprendre et de prédire l'impact de la variabilité et du changement climatique sur l'intensité et la fréquence des événements hydrologiques, surtout les extrêmes. Cette thèse propose une étape importante vers cet objectif, en développant un cadre spatio-temporel d'analyse probabiliste régionale qui prend en compte les effets de la variabilité climatique sur les événements hydrologiques. Les données sont supposées suivre une distribution, dont les paramètres sont liés à des variables temporelles et/ou spatiales à l'aide de modèles de régression. Les paramètres sont estimés avec une méthode de Monte-Carlo par Chaînes de Markov dans un cadre Bayésien. La dépendance spatiale des données est modélisée par des copules. Les outils de comparaison de modèles sont aussi intégrés. L'élaboration de ce cadre général de modélisation est complétée par des simulations Monte-Carlo pour évaluer sa fiabilité. Deux études de cas sont effectuées pour confirmer la généralité, la flexibilité et l'utilité du cadre de modélisation pour comprendre et prédire l'impact de la variabilité climatique sur les événements hydrologiques. Ces cas d'études sont réalisés à deux échelles spatiales distinctes: * Echelle régionale: les pluies d'été dans le sud-est du Queensland (Australie). Ce cas d'étude analyse l'impact de l'oscillation ENSO sur la pluie totale et la pluie maximale d'été. En utilisant un modèle régional, l'impact asymétrique de l'ENSO est souligné: une phase La Niña induit une augmentation significative sur la pluie totale et maximale, alors qu'une phase El Niño n'a pas d'influence significative. * Echelle mondiale: une nouvelle base de données mondiale des précipitations extrêmes composée de 11588 stations pluviométriques est utilisée pour analyser l'impact des oscillations ENSO sur les précipitations extrêmes mondiales. Cette analyse permet d'apprécier les secteurs où ENSO a un impact sur les précipitations à l'échelle mondiale et de quantifier son impact sur les estimations de quantiles extrêmes. Par ailleurs, l'asymétrie de l'impact ENSO et son caractère saisonnier sont également évalués.
67

Contrôle de têtes parlantes par inversion acoustico-articulatoire pour l'apprentissage et la réhabilitation du langage

Ben youssef, Atef 26 October 2011 (has links) (PDF)
Les sons de parole peuvent être complétés par l'affichage des articulateurs sur un écran d'ordinateur pour produire de la parole augmentée, un signal potentiellement utile dans tous les cas où le son lui-même peut être difficile à comprendre, pour des raisons physiques ou perceptuelles. Dans cette thèse, nous présentons un système appelé retour articulatoire visuel, dans lequel les articulateurs visibles et non visibles d'une tête parlante sont contrôlés à partir de la voix du locuteur. La motivation de cette thèse était de développer un tel système qui pourrait être appliqué à l'aide à l'apprentissage de la prononciation pour les langues étrangères, ou dans le domaine de l'orthophonie. Nous avons basé notre approche de ce problème d'inversion sur des modèles statistiques construits à partir de données acoustiques et articulatoires enregistrées sur un locuteur français à l'aide d'un articulographe électromagnétique (EMA). Notre approche avec les modèles de Markov cachés (HMMs) combine des techniques de reconnaissance automatique de la parole et de synthèse articulatoire pour estimer les trajectoires articulatoires à partir du signal acoustique. D'un autre côté, les modèles de mélanges gaussiens (GMMs) estiment directement les trajectoires articulatoires à partir du signal acoustique sans faire intervenir d'information phonétique. Nous avons basé notre évaluation des améliorations apportées à ces modèles sur différents critères : l'erreur quadratique moyenne (RMSE) entre les coordonnées EMA originales et reconstruites, le coefficient de corrélation de Pearson, l'affichage des espaces et des trajectoires articulatoires, aussi bien que les taux de reconnaissance acoustique et articulatoire. Les expériences montrent que l'utilisation d'états liés et de multi-gaussiennes pour les états des HMMs acoustiques améliore l'étage de reconnaissance acoustique des phones, et que la minimisation de l'erreur générée (MGE) dans la phase d'apprentissage des HMMs articulatoires donne des résultats plus précis par rapport à l'utilisation du critère plus conventionnel de maximisation de vraisemblance (MLE). En outre, l'utilisation du critère MLE au niveau de mapping direct de l'acoustique vers l'articulatoire par GMMs est plus efficace que le critère de minimisation de l'erreur quadratique moyenne (MMSE). Nous constatons également trouvé que le système d'inversion par HMMs est plus précis celui basé sur les GMMs. Par ailleurs, des expériences utilisant les mêmes méthodes statistiques et les mêmes données ont montré que le problème de reconstruction des mouvements de la langue à partir des mouvements du visage et des lèvres ne peut pas être résolu dans le cas général, et est impossible pour certaines classes phonétiques. Afin de généraliser notre système basé sur un locuteur unique à un système d'inversion de parole multi-locuteur, nous avons implémenté une méthode d'adaptation du locuteur basée sur la maximisation de la vraisemblance par régression linéaire (MLLR). Dans cette méthode MLLR, la transformation basée sur la régression linéaire qui adapte les HMMs acoustiques originaux à ceux du nouveau locuteur est calculée de manière à maximiser la vraisemblance des données d'adaptation. Finalement, cet étage d'adaptation du locuteur a été évalué en utilisant un système de reconnaissance automatique des classes phonétique de l'articulation, dans la mesure où les données articulatoires originales du nouveau locuteur n'existent pas. Finalement, en utilisant cette procédure d'adaptation, nous avons développé un démonstrateur complet de retour articulatoire visuel, qui peut être utilisé par un locuteur quelconque. Ce système devra être évalué de manière perceptive dans des conditions réalistes.
68

Thermographie infrarouge et méthodes d'inférence statistique pour la détermination locale et transitoire de termes-sources et diffusivité thermique / Thermographic measurements and inverse problems for the source-term estimation

Massard da Fonseca, Henrique 11 January 2012 (has links)
Ce travail a pour objectif de développer des techniques théoriques et expérimentales pour la détermination des propriétés thermophysiques et terme source. Deux formes de comportement temporel pour le terme source ont été étudiées : un constant et un qui varie dans le temps. La variation dans le temps a été considérée comme une pulse carrée ou une variation sinusoïdale. Deux formes d’échauffement ont été utilisées : une résistance électrique et un laser diode. Pour l’acquisition des données une caméra de thermographie par infrarouge a été utilisée. La stratégie nodale a été utilisée pour contourner le problème des grosses quantités de données générées par la caméra. Le problème direct a été résolu par différences finies, et deux approches pour la solution du problème inverse ont été utilisées, en fonction du comportement temporel du terme source. Les deux approches sont basées sur des méthodes d’inférence statistiques dans une approche Bayésienne, avec la méthode de Monte Carlo via les Chaînes de Markov pour le terme source constant, et le filtre de Kalman pour le problème dont le terme source varie dans le temps. Des manipulations contrôlées ont été faites dans un échantillon avec des propriétés thermophysiques déterminées par des méthodes classiques dans la littérature. / This work deals with the development of new theoretical and experimental techniques for the efficient estimation of thermophysical properties and source-term in micro and macro-scale. Two kinds of source term were studied: a constant and a time varying source term. The time wise variation of the source term had a sinusoidal and a pulse form. Two devices were used for the sample heating: An electrical resistance and a laser diode. For the data acquisition, an infrared camera was used, providing a full cartography of properties of the medium and also non-contact temperature measurements. The direct problem was solved by the finite differences method, and two approaches were used for the solution of the inverse problem, depending on the time varying behavior of the source term. Both approaches deal with the parameters estimation within the Bayesian framework, using the Markov Chain Monte Carlo (MCMC) method via the Metropolis Hastings (MH) algorithm for the constant source term, and the Kalman filter for the time-varying source term. The nodal strategy is presented as a method to deal with the large number of experimental data problems. Experiments were carried out in a sample with well-known thermophysical properties, determined by classical methods.
69

Analyse propabiliste régionale des précipitations : prise en compte de la variabilité et du changement climatique / Regional frequency analysis of precipitation accounting for climate variability and change

Sun, Xun 28 October 2013 (has links)
Les événements de pluies extrêmes et les inondations qui en résultent constituent une préoccupation majeure en France comme dans le monde. Dans le domaine de l'ingénierie, les méthodes d'analyse probabiliste sont pratiquement utilisées pour prédire les risques, dimensionner des ouvrages hydrauliques et préparer l'atténuation. Ces méthodes sont classiquement basées sur l'hypothèse que les observations sont identiquement distribuées. Il y a aujourd'hui de plus en plus d'éléments montrant que des variabilités climatiques à grande échelle (par exemple les oscillations El Niño – La Niña, cf. indice ENSO) ont une influence significative sur les précipitations dans le monde. Par ailleurs, les effets attendus du changement climatique sur le cycle de l'eau remettent en question l'hypothèse de variables aléatoires "identiquement distribuées" dans le temps. Il est ainsi important de comprendre et de prédire l'impact de la variabilité et du changement climatique sur l'intensité et la fréquence des événements hydrologiques, surtout les extrêmes. Cette thèse propose une étape importante vers cet objectif, en développant un cadre spatio-temporel d'analyse probabiliste régionale qui prend en compte les effets de la variabilité climatique sur les événements hydrologiques. Les données sont supposées suivre une distribution, dont les paramètres sont liés à des variables temporelles et/ou spatiales à l'aide de modèles de régression. Les paramètres sont estimés avec une méthode de Monte-Carlo par Chaînes de Markov dans un cadre Bayésien. La dépendance spatiale des données est modélisée par des copules. Les outils de comparaison de modèles sont aussi intégrés. L'élaboration de ce cadre général de modélisation est complétée par des simulations Monte-Carlo pour évaluer sa fiabilité. Deux études de cas sont effectuées pour confirmer la généralité, la flexibilité et l'utilité du cadre de modélisation pour comprendre et prédire l'impact de la variabilité climatique sur les événements hydrologiques. Ces cas d'études sont réalisés à deux échelles spatiales distinctes: • Echelle régionale: les pluies d'été dans le sud-est du Queensland (Australie). Ce cas d'étude analyse l'impact de l'oscillation ENSO sur la pluie totale et la pluie maximale d'été. En utilisant un modèle régional, l'impact asymétrique de l'ENSO est souligné: une phase La Niña induit une augmentation significative sur la pluie totale et maximale, alors qu'une phase El Niño n'a pas d'influence significative. • Echelle mondiale: une nouvelle base de données mondiale des précipitations extrêmes composée de 11588 stations pluviométriques est utilisée pour analyser l'impact des oscillations ENSO sur les précipitations extrêmes mondiales. Cette analyse permet d'apprécier les secteurs où ENSO a un impact sur les précipitations à l'échelle mondiale et de quantifier son impact sur les estimations de quantiles extrêmes. Par ailleurs, l'asymétrie de l'impact ENSO et son caractère saisonnier sont également évalués. / Extreme precipitations and their consequences (floods) are one of the most threatening natural disasters for human beings. In engineering design, Frequency Analysis (FA) techniques are an integral part of risk assessment and mitigation. FA uses statistical models to estimate the probability of extreme hydrological events which provides information for designing hydraulic structures. However, standard FA methods commonly rely on the assumption that the distribution of observations is identically distributed. However, there is now a substantial body of evidence that large-scale modes of climate variability (e.g. El-Niño Southern Oscillation, ENSO; Indian Ocean Dipole, IOD; etc.) exert a significant influence on precipitation in various regions worldwide. Furthermore, climate change is likely to have an influence on hydrology, thus further challenging the “identically distributed” assumption. Therefore, FA techniques need to move beyond this assumption. In order to provide a more accurate risk assessment, it is important to understand and predict the impact of climate variability/change on the severity and frequency of hydrological events (especially extremes). This thesis provides an important step towards this goal, by developing a rigorous general climate-informed spatio-temporal regional frequency analysis (RFA) framework for incorporating the effects of climate variability on hydrological events. This framework brings together several components (in particular spatio-temporal regression models, copula-based modeling of spatial dependence, Bayesian inference, model comparison tools) to derive a general and flexible modeling platform. In this framework, data are assumed to follow a distribution, whose parameters are linked to temporal or/and spatial covariates using regression models. Parameters are estimated with a Monte Carlo Markov Chain method under the Bayesian framework. Spatial dependency of data is considered with copulas. Model comparison tools are integrated. The development of this general modeling framework is complemented with various Monte-Carlo experiments aimed at assessing its reliability, along with real data case studies. Two case studies are performed to confirm the generality, flexibility and usefulness of the framework for understanding and predicting the impact of climate variability on hydrological events. These case studies are carried out at two distinct spatial scales: • Regional scale: Summer rainfall in Southeast Queensland (Australia): this case study analyzes the impact of ENSO on the summer rainfall totals and summer rainfall maxima. A regional model allows highlighting the asymmetric impact of ENSO: while La Niña episodes induce a significant increase in both the summer rainfall totals and maxima, the impact of El Niño episodes is found to be not significant. • Global scale: a new global dataset of extreme precipitation including 11588 rainfall stations worldwide is used to describe the impact of ENSO on extreme precipitations in the world. This is achieved by applying the regional modeling framework to 5x5 degrees cells covering all continental areas. This analysis allows describing the pattern of ENSO impact at the global scale and quantifying its impact on extreme quantiles estimates. Moreover, the asymmetry of ENSO impact and its seasonal pattern are also evaluated.
70

Problématiques statistiques rencontrées dans l’étude du traitement antirétroviral des adultes infectés par le VIH en Afrique subsaharienne / Statistical problems encountered in the study of antiretroviral treatment of adults infected with HIV in sub-Saharan Africa

Tchatchueng Mbougua, Jules Brice 12 June 2012 (has links)
Partant de problématiques statistiques rencontrées dans l'étude du traitement antirétroviral des adultes infectés par le virus de l'immunodéficience humaine (VIH) en Afrique subsaharienne, cette thèse cherche, d'une part, à favoriser la vulgarisation d'outils méthodologiques relativement récents auprès d'un public d'utilisateurs moins avertis et, d'autre part, à participer au développement de nouveaux outils. Le premier chapitre présente différentes méthodes de modélisation des données longitudinales dont des méthodes d'analyse de l'évolution d'un critère au cours du temps (les modèles linéaires mixtes généralisés et les modèles d'équations d'estimation généralisées) ou de la survenue d'un évènement au cours du temps (le modèle semi-paramétrique de Cox et ses extensions à la prise en compte des covariables dépendantes du temps et de la censure informative). Le deuxième chapitre s'intéresse aux tests de non-infériorité et propose deux développements de la procédure classique de ces tests pour les cas où la marge de non-infériorité est relative. Enfin, le troisième chapitre aborde la question des données manquantes et propose une extension de la méthode d'imputation multiple par les distributions conditionnelles univariées qui consiste à prendre en compte des effets non-linéaires des covariables dans les modèles d'imputation par des fonctions B-splines. Ces méthodes sont illustrées par des études sur le VIH au Cameroun et au Sénégal. / On the basis of statistical challenges encountered in study of antiretroviral treatment of adults infected with human immunodeficiency virus (HIV) in sub-Saharan Africa, this thesis aims to promote the dissemination of relatively recent methodological tools of less aware audience of users on one hand and to participate to development of new tools on the other hand. The first chapter presents various methods for modeling longitudinal data of which analysis methods for changing of a criterion over time (the generalized linear mixed models and models of generalized estimating equations) or the occurrence of an event over time (the semi-parametric Cox model and its extensions to take into account time-dependent covariates and informative censoring). The second chapter focuses on non-inferiority test and provides two developments of the classical procedure of these tests in cases where the non-inferiority margin is relative. The third chapter addresses the question of missing data and proposes an extension of the multiple imputation method based on fully conditional specification, to take into account nonlinear effects of covariates in the imputation models using B-splines functions. These methods are illustrated by studies on HIV in Cameroon and Senegal.

Page generated in 0.1439 seconds