• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 11
  • 1
  • Tagged with
  • 26
  • 13
  • 12
  • 10
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement de nouveaux outils statistiques pour l'analyse d'images spectrales à faibles comptes

B. Lavoie, Francis January 2015 (has links)
Le projet de maîtrise était axé sur l’utilisation de traitements multivariables afin d’analyser adéquatement des ensembles de données provenant d’imagerie spectrale. Ce mémoire met premièrement en relief la particularité des détecteurs utilisés dans les microscopes, ainsi que les caractéristiques du bruit dans les données acquises. L’analyse en composantes principales est une méthode qui se trouve dans plusieurs méthodologies de traitements de données d’imagerie spectrale. Celle-ci comprend certains désavantages, dont l’impossibilité d’extraire de réels spectres et des distributions de concentrations des composés en présence dans l’échantillon. La résolution multivariée de courbes – moindres carrés alternatifs est une méthodologie qui a été popularisée dans les années 2000. Celle-ci permet de contrer les désavantages de l’analyse en composantes principales en extrayant des spectres physiquement cohérents et en créant des cartes de concentrations associées à ces spectres. Cependant, ce mémoire démontre que cette méthode est inefficace lorsque les données ont un très faible ratio signal sur bruit et que plusieurs composants sont à extraire. Des améliorations à la résolution multivariée de courbes – moindres carrés alternatifs sont donc apportées. Notamment, la caractéristique du bruit des données, connue et documentée à la suite de nombreuses études, est utilisée afin d’améliorer la convergence de l’algorithme vers la bonne solution. Ce mémoire démontre que ces améliorations sont appliquées avec succès sur des ensembles de données d’imagerie spectrale provenant de spectrométrie photoélectronique X, d’analyse dispersive en énergie et de spectroscopie des pertes d’énergie.
2

Prévision de la prime de marché canadienne et américaine

Lemay-Crilly, Maxime January 2016 (has links)
Dans le cadre de cette étude, il est question de prédire les primes de risque de marché pour les États-Unis et le Canada sur un horizon d’un mois en se basant sur les données économiques des 20 dernières années. En se basant sur les modèles élaborés précédemment dans la littérature, ce mémoire a pour but d’effectuer des prévisions plus précises que celles générées précédemment. Ainsi, on observe que l’ensemble des modèles retenus, tant univariés, multivariés ou par agrégation sectorielle obtiennent un pouvoir explicatif supérieur au modèle naïf, et ce tant pour le marché américain que le marché canadien. Pour le marché américain, le modèle multivarié Stepwise Backward obtient la meilleure performance du groupe étudié avec un R[indice supérieur 2] de 0.10714 dans un contexte In-Sample et un R[indice supérieur 2] de 0.22284 dans un contexte Out-Of-Sample selon le test de McCracken (2007). Ce modèle permet donc d’expliquer 22.28% de la variation mensuelle de la prime de risque américaine dans le contexte de l’échantillon observé dans cette étude. Le modèle en question est composé des variables économiques représentant les variations mensuelles au niveau de l’inflation, de la masse monétaire M2, ainsi que du dernier taux journalier du mois observé pour les obligations gouvernementales ayant une échéance de deux ans, cinq ans et dix ans. Pour le marché canadien, le modèle multivarié Stepwise Forward obtient la meilleure performance du groupe étudié dans un contexte In-Sample avec un R[indice supérieur 2] de 0.07760 selon le test de McCracken (2007). Cependant, dans un contexte Out-Of-Sample, le modèle de prévision par agrégation sectorielle élaboré à la section 4.4 obtient de loin la meilleure performance avec un R[indice supérieur 2] de 0.17773 selon le test de McCracken (2007), permettant donc d’expliquer 17.77% de la variation mensuelle de la prime de risque canadienne. La performance accrue des modèles de prévision dans un contexte Out-Of-Sample semble provenir d’une meilleure performance notamment dans les premières années d’observation, (2001 à 2007) grâce à l’exclusion des grandes variations affectant les dernières années de la période d’observation (2008 à 2011).
3

Représentations parcimonieuses pour les signaux multivariés / Sparse representations for multivariate signals

Barthelemy, Quentin 13 May 2013 (has links)
Dans cette thèse, nous étudions les méthodes d'approximation et d'apprentissage qui fournissent des représentations parcimonieuses. Ces méthodes permettent d'analyser des bases de données très redondantes à l'aide de dictionnaires d'atomes appris. Etant adaptés aux données étudiées, ils sont plus performants en qualité de représentation que les dictionnaires classiques dont les atomes sont définis analytiquement. Nous considérons plus particulièrement des signaux multivariés résultant de l'acquisition simultanée de plusieurs grandeurs, comme les signaux EEG ou les signaux de mouvements 2D et 3D. Nous étendons les méthodes de représentations parcimonieuses au modèle multivarié, pour prendre en compte les interactions entre les différentes composantes acquises simultanément. Ce modèle est plus flexible que l'habituel modèle multicanal qui impose une hypothèse de rang 1. Nous étudions des modèles de représentations invariantes : invariance par translation temporelle, invariance par rotation, etc. En ajoutant des degrés de liberté supplémentaires, chaque noyau est potentiellement démultiplié en une famille d'atomes, translatés à tous les échantillons, tournés dans toutes les orientations, etc. Ainsi, un dictionnaire de noyaux invariants génère un dictionnaire d'atomes très redondant, et donc idéal pour représenter les données étudiées redondantes. Toutes ces invariances nécessitent la mise en place de méthodes adaptées à ces modèles. L'invariance par translation temporelle est une propriété incontournable pour l'étude de signaux temporels ayant une variabilité temporelle naturelle. Dans le cas de l'invariance par rotation 2D et 3D, nous constatons l'efficacité de l'approche non-orientée sur celle orientée, même dans le cas où les données ne sont pas tournées. En effet, le modèle non-orienté permet de détecter les invariants des données et assure la robustesse à la rotation quand les données tournent. Nous constatons aussi la reproductibilité des décompositions parcimonieuses sur un dictionnaire appris. Cette propriété générative s'explique par le fait que l'apprentissage de dictionnaire est une généralisation des K-means. D'autre part, nos représentations possèdent de nombreuses invariances, ce qui est idéal pour faire de la classification. Nous étudions donc comment effectuer une classification adaptée au modèle d'invariance par translation, en utilisant des fonctions de groupement consistantes par translation. / In this thesis, we study approximation and learning methods which provide sparse representations. These methods allow to analyze very redundant data-bases thanks to learned atoms dictionaries. Being adapted to studied data, they are more efficient in representation quality than classical dictionaries with atoms defined analytically. We consider more particularly multivariate signals coming from the simultaneous acquisition of several quantities, as EEG signals or 2D and 3D motion signals. We extend sparse representation methods to the multivariate model, to take into account interactions between the different components acquired simultaneously. This model is more flexible that the common multichannel one which imposes a hypothesis of rank 1. We study models of invariant representations: invariance to temporal shift, invariance to rotation, etc. Adding supplementary degrees of freedom, each kernel is potentially replicated in an atoms family, translated at all samples, rotated at all orientations, etc. So, a dictionary of invariant kernels generates a very redundant atoms dictionary, thus ideal to represent the redundant studied data. All these invariances require methods adapted to these models. Temporal shift-invariance is an essential property for the study of temporal signals having a natural temporal variability. In the 2D and 3D rotation invariant case, we observe the efficiency of the non-oriented approach over the oriented one, even when data are not revolved. Indeed, the non-oriented model allows to detect data invariants and assures the robustness to rotation when data are revolved. We also observe the reproducibility of the sparse decompositions on a learned dictionary. This generative property is due to the fact that dictionary learning is a generalization of K-means. Moreover, our representations have many invariances that is ideal to make classification. We thus study how to perform a classification adapted to the shift-invariant model, using shift-consistent pooling functions.
4

Risk factors for the progression from gestational hypertension to preeclampsia

Wu, Yuquan January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Modélisation longue mémoire multivariée : applications aux problématiques du producteur d'EDF dans le cadre de la libéralisation du marché européen de l'électricité

Diongue, Abdou Ka 03 October 2005 (has links) (PDF)
Plusieurs données de marchés financiers, telles que les prix spot de marchés européens de l'électricité interconnectés, présentent de la longue mémoire, au sens de la décroissance hyperbolique des autocorrélations combinée avec un phénomène d'hétéroskédasticité et de cycles périodiques ou non. Pour modéliser de tels comportements, nous introduisons d'une part les processus GIGARCH à k facteurs et nous proposons deux méthodes d'estimation des paramètres. Nous développons les propriétés asymptotiques des estimateurs de chacune des méthodes. De plus, afin de comparer les propriétés asymptotiques des estimateurs, des simulations de Monté Carlo sont effectuées. D'autre part, nous proposons un modèle longue mémoire généralisé multivarié (MVGARMA à k facteurs) pour modéliser conjointement deux marchés européens de l'électricité interconnectés. Nous donnons une procédure pratique d'estimation des paramètres. Pour la prévision, nous fournissons les expressions analytiques des prédicteurs de moindres carrés pour les modèles proposés et les intervalles de confiance des erreurs de prévision. Enfin, nous appliquons ces deux modèles sur les prix spot de l'électricité des marchés français et allemand et nous comparons leurs capacités prédictives.
6

Dépendance et événements extrêmes en théorie de la ruine : étude univariée et multivariée, problèmes d'allocation optimale

Biard, Romain 07 October 2010 (has links) (PDF)
Cette thèse présente de nouveaux modèles et de nouveaux résultats en théorie de la ruine, lorsque les distributions des montants de sinistres sont à queue épaisse. Les hypothèses classiques d'indépendance et de stationnarité, ainsi que l'analyse univariée sont parfois jugées trop restrictives pour décrire l'évolution complexe des réserves d'une compagnie d'assurance. Dans un contexte de dépendance entre les montants de sinistres, des équivalents de la probabilité deruine univariée en temps fini sont obtenus. Cette dépendance, ainsi que les autres paramètres du modèle sont modulés par un processus Markovien d'environnement pour prendre en compte des possibles crises de corrélation. Nous introduisons ensuite des modèles de dépendance entre les montants de sinistres et les temps inter-sinistres pour des risques de type tremblements de terre et inondations. Dans un cadre multivarié, nous présentons divers critères de risques tels que la probabilité de ruine multivariée ou l'espérance de l'intégrale temporelle de la partie négative du processus de risque. Nous résolvons des problèmes d'allocation optimale pour ces différentes mesures de risque. Nous étudions alors l'impact de la dangerosité des risques et de la dépendance entre les branches sur cette allocation optimale
7

Représentations parcimonieuses pour les signaux multivariés

Barthélemy, Quentin 13 May 2013 (has links) (PDF)
Dans cette thèse, nous étudions les méthodes d'approximation et d'apprentissage qui fournissent des représentations parcimonieuses. Ces méthodes permettent d'analyser des bases de données très redondantes à l'aide de dictionnaires d'atomes appris. Etant adaptés aux données étudiées, ils sont plus performants en qualité de représentation que les dictionnaires classiques dont les atomes sont définis analytiquement. Nous considérons plus particulièrement des signaux multivariés résultant de l'acquisition simultanée de plusieurs grandeurs, comme les signaux EEG ou les signaux de mouvements 2D et 3D. Nous étendons les méthodes de représentations parcimonieuses au modèle multivarié, pour prendre en compte les interactions entre les différentes composantes acquises simultanément. Ce modèle est plus flexible que l'habituel modèle multicanal qui impose une hypothèse de rang 1. Nous étudions des modèles de représentations invariantes : invariance par translation temporelle, invariance par rotation, etc. En ajoutant des degrés de liberté supplémentaires, chaque noyau est potentiellement démultiplié en une famille d'atomes, translatés à tous les échantillons, tournés dans toutes les orientations, etc. Ainsi, un dictionnaire de noyaux invariants génère un dictionnaire d'atomes très redondant, et donc idéal pour représenter les données étudiées redondantes. Toutes ces invariances nécessitent la mise en place de méthodes adaptées à ces modèles. L'invariance par translation temporelle est une propriété incontournable pour l'étude de signaux temporels ayant une variabilité temporelle naturelle. Dans le cas de l'invariance par rotation 2D et 3D, nous constatons l'efficacité de l'approche non-orientée sur celle orientée, même dans le cas où les données ne sont pas tournées. En effet, le modèle non-orienté permet de détecter les invariants des données et assure la robustesse à la rotation quand les données tournent. Nous constatons aussi la reproductibilité des décompositions parcimonieuses sur un dictionnaire appris. Cette propriété générative s'explique par le fait que l'apprentissage de dictionnaire est une généralisation des K-means. D'autre part, nos représentations possèdent de nombreuses invariances, ce qui est idéal pour faire de la classification. Nous étudions donc comment effectuer une classification adaptée au modèle d'invariance par translation, en utilisant des fonctions de groupement consistantes par translation.
8

Introducing complex dependency structures into supervised components-based models / Structures de dépendance complexes pour modèles à composantes supervisées

Chauvet, Jocelyn 19 April 2019 (has links)
Une forte redondance des variables explicatives cause de gros problèmes d'identifiabilité et d'instabilité des coefficients dans les modèles de régression. Même lorsque l'estimation est possible, l'interprétation des résultats est donc extrêmement délicate. Il est alors indispensable de combiner à leur vraisemblance un critère supplémentaire qui régularise l'estimateur. Dans le sillage de la régression PLS, la stratégie de régularisation que nous considérons dans cette thèse est fondée sur l'extraction de composantes supervisées. Contraintes à l'orthogonalité entre elles, ces composantes doivent non seulement capturer l'information structurelle des variables explicatives, mais aussi prédire autant que possible les variables réponses, qui peuvent être de types divers (continues ou discrètes, quantitatives, ordinales ou nominales). La régression sur composantes supervisées a été développée pour les GLMs multivariés, mais n'a jusqu'alors concerné que des modèles à observations indépendantes.Or dans de nombreuses situations, les observations sont groupées. Nous proposons une extension de la méthode aux GLMMs multivariés, pour lesquels les corrélations intra-groupes sont modélisées au moyen d'effets aléatoires. À chaque étape de l'algorithme de Schall permettant l'estimation du GLMM, nous procédons à la régularisation du modèle par l'extraction de composantes maximisant un compromis entre qualité d'ajustement et pertinence structurelle. Comparé à la régularisation par pénalisation de type ridge ou LASSO, nous montrons sur données simulées que notre méthode non seulement permet de révéler les dimensions explicatives les plus importantes pour l'ensemble des réponses, mais fournit souvent une meilleure prédiction. La méthode est aussi évaluée sur données réelles.Nous développons enfin des méthodes de régularisation dans le contexte spécifique des données de panel (impliquant des mesures répétées sur différents individus aux mêmes dates). Deux effets aléatoires sont introduits : le premier modélise la dépendance des mesures relatives à un même individu, tandis que le second modélise un effet propre au temps (possédant donc une certaine inertie) partagé par tous les individus. Pour des réponses Gaussiennes, nous proposons d'abord un algorithme EM pour maximiser la vraisemblance du modèle pénalisée par la norme L2 des coefficients de régression. Puis nous proposons une alternative consistant à donner une prime aux directions les plus "fortes" de l'ensemble des prédicteurs. Une extension de ces approches est également proposée pour des données non-Gaussiennes, et des tests comparatifs sont effectués sur données Poissonniennes. / High redundancy of explanatory variables results in identification troubles and a severe lack of stability of regression model estimates. Even when estimation is possible, a consequence is the near-impossibility to interpret the results. It is then necessary to combine its likelihood with an extra-criterion regularising the estimates. In the wake of PLS regression, the regularising strategy considered in this thesis is based on extracting supervised components. Such orthogonal components must not only capture the structural information of the explanatory variables, but also predict as well as possible the response variables, which can be of various types (continuous or discrete, quantitative, ordinal or nominal). Regression on supervised components was developed for multivariate GLMs, but so far concerned models with independent observations.However, in many situations, the observations are grouped. We propose an extension of the method to multivariate GLMMs, in which within-group correlations are modelled with random effects. At each step of Schall's algorithm for GLMM estimation, we regularise the model by extracting components that maximise a trade-off between goodness-of-fit and structural relevance. Compared to penalty-based regularisation methods such as ridge or LASSO, we show on simulated data that our method not only reveals the important explanatory dimensions for all responses, but often gives a better prediction too. The method is also assessed on real data.We finally develop regularisation methods in the specific context of panel data (involving repeated measures on several individuals at the same time-points). Two random effects are introduced: the first one models the dependence of measures related to the same individual, while the second one models a time-specific effect (thus having a certain inertia) shared by all the individuals. For Gaussian responses, we first propose an EM algorithm to maximise the likelihood penalised by the L2-norm of the regression coefficients. Then, we propose an alternative which rather gives a bonus to the "strongest" directions in the explanatory subspace. An extension of these approaches is also proposed for non-Gaussian data, and comparative tests are carried out on Poisson data.
9

Indices boursiers internationaux et la crise des nouvelles technologies : approches switching et DCC-MVGARCH

Lemand (suleimann), Ryan 02 July 2003 (has links) (PDF)
Depuis la crise boursi`ere du secteur des Nouvelles Technologies en 2000 et la croissance très grande de la volatilité des actifs boursiers par rapport à ce qui a précédé cette année, la modélisation de cette volatilité et son effet de contagion à travers les marchés boursiers dans le monde, a suscité beaucoup de discussions et de recherches. Nous nous intéressons par conséquent, à la modélisation de la volatilité de trois indices technologiques : NASDAQ-100, IT.CAC et NEMAX et cinq indices globaux : Dow Jones Industrial Average, Standard & Poor 500, NASDAQ Composite, DAX et CAC40, afin de vérifier si le risque d'investissement, mesuré par la valeur à risque (VaR) a changé suite à la crise technologique et afin de montrer que la crise technologique, parmi toutes les crises boursières vécues, est la crise qui a le plus affecté les marchés boursiers à travers le monde. Notre calcul de la VaR exige une modélisation précise de la volatilité des séries étudiées et l'identification de la présence de corrélations conditionnelles dynamiques ou non. Nous utilisons différents modèles pour modéliser la volatilité des indices étudiés, notamment différents modèles à changements de régimes (SWARCH, SWGARCH et MSVECM) et le modèle GARCH multivari é à corrélations conditionnelles dynamiques (DCC-MVGARCH). Nous utilisons les modèles à changements de régimes et les modèles VAR afin de montrer l'existence d'effets de co-mouvements et de contagion entre les indices étudiés et le modèle DCC-MVGARCH afin de montrer l'effet de la crise technologique sur l'augmentation de la volatilité des marchés boursiers et la présence de corrélations dynamiques qui les lient, ainsi que pour le calcul de la VaR. Nous comparons à la fin les VaR calculées par le modèle DCC-MVGARCH avec des VaR calculée par la méthode non-paramétrique des copules.
10

Dépendance et résultats limites, quelques applications en finance et assurance

Charpentier, Arthur 20 June 2006 (has links) (PDF)
Cette thèse porte sur l'étude des dépendance entre risques, à l'aide des copules. La prise en compte des dépendances qui peuvent exister entre risques est devenue cruciale pour les gestionnaires de risques, et les enjeux peuvent être colossaux (risque de contagion – et de faillites en chaîne - au sein d'un portefeuille d'obligations risquées, ou corrélations entre risques extrêmes en réassurance – ou plusieurs risques a priori indépendants sont affectés lorsqu'une catastrophe survient). Une meilleure connaissance des structures de dépendance est alors fondamentale afin de proposer une modélisation adéquate. Aussi, l'accent est mis, dans cette thèse, sur la déformation des copules en fonction du temps, ou dans les queues de distribution.<br /><br />La première partie est consacrée à la déformation temporelle des copules, dans un contexte de risque de crédit. En introduisant les copules conditionnelles, il est ainsi possible d'étudier la dépendance entre les durées de vie avant le défaut d'un émetteur, sachant qu'aucun défaut n'a été observé pendant une période de temps donnée. Des théorèmes de point fixe permettent d'obtenir des comportement limites, et d'obtenir des résultats sur les first-to-default, par exemple.<br /><br />Les chapitres suivant traitent de l'utilisation des copules conditionnelles dans la modélisation des risques extrêmes. La théorie des extrêmes dans un cadre multivarié a été faite traditionnellement en modélisant les maximas par composantes. Mais l'étude par dépassement de seuil joint offre une richesse beaucoup plus grande. En particulier, l'étude dans la queue supérieure et inférieure est présentée dans le cas des copules Archimédiennes, en insistant sur les caractérisations des cas d'indépendance asymptotique, d'ordinaire si difficile à appréhender.<br /><br />La dernière partie aborde l'estimation nonparamétrique des densités de copules, où des estimateurs à noyaux sont étudiés, permettant d'éviter des effets de bords traditionnellement inévitable lorsque l'on estime une densité à support compact. En particulier, les techniques sont utilisées pour estimer correctement la densité dans les queues de distributions, y compris avec des données censurées.<br /><br />Enfin, une bijgevoegde stelling conclue cette thèse sur l'étude de la dépendance temporelle pour les risques climatiques. Des modèles à mémoire longue sont ainsi utilisé pour modéliser le risque de tempête et estimer la période de retour de la canicule d'août 2003. Et enfin, des modèles haute-fréquences (proches de ceux utilisé en finance pour modéliser les prix de titres transaction par transaction) sont utilisés pour modéliser des données hydrologiques, et proposer de nouvelles estimations pour le risque de crue.

Page generated in 0.068 seconds