Spelling suggestions: "subject:"analyse multivariable""
41 |
Spectral factor model for time series learningAlexander Miranda, Abhilash 24 November 2011 (has links)
Today's computerized processes generate<p>massive amounts of streaming data.<p>In many applications, data is collected for modeling the processes. The process model is hoped to drive objectives such as decision support, data visualization, business intelligence, automation and control, pattern recognition and classification, etc. However, we face significant challenges in data-driven modeling of processes. Apart from the errors, outliers and noise in the data measurements, the main challenge is due to a large dimensionality, which is the number of variables each data sample measures. The samples often form a long temporal sequence called a multivariate time series where any one sample is influenced by the others.<p>We wish to build a model that will ensure robust generation, reviewing, and representation of new multivariate time series that are consistent with the underlying process.<p><p>In this thesis, we adopt a modeling framework to extract characteristics from multivariate time series that correspond to dynamic variation-covariation common to the measured variables across all the samples. Those characteristics of a multivariate time series are named its 'commonalities' and a suitable measure for them is defined. What makes the multivariate time series model versatile is the assumption regarding the existence of a latent time series of known or presumed characteristics and much lower dimensionality than the measured time series; the result is the well-known 'dynamic factor model'.<p>Original variants of existing methods for estimating the dynamic factor model are developed: The estimation is performed using the frequency-domain equivalent of the dynamic factor model named the 'spectral factor model'. To estimate the spectral factor model, ideas are sought from the asymptotic theory of spectral estimates. This theory is used to attain a probabilistic formulation, which provides maximum likelihood estimates for the spectral factor model parameters. Then, maximum likelihood parameters are developed with all the analysis entirely in the spectral-domain such that the dynamically transformed latent time series inherits the commonalities maximally.<p><p>The main contribution of this thesis is a learning framework using the spectral factor model. We term learning as the ability of a computational model of a process to robustly characterize the data the process generates for purposes of pattern matching, classification and prediction. Hence, the spectral factor model could be claimed to have learned a multivariate time series if the latent time series when dynamically transformed extracts the commonalities reliably and maximally. The spectral factor model will be used for mainly two multivariate time series learning applications: First, real-world streaming datasets obtained from various processes are to be classified; in this exercise, human brain magnetoencephalography signals obtained during various cognitive and physical tasks are classified. Second, the commonalities are put to test by asking for reliable prediction of a multivariate time series given its past evolution; share prices in a portfolio are forecasted as part of this challenge.<p><p>For both spectral factor modeling and learning, an analytical solution as well as an iterative solution are developed. While the analytical solution is based on low-rank approximation of the spectral density function, the iterative solution is based on the expectation-maximization algorithm. For the human brain signal classification exercise, a strategy for comparing similarities between the commonalities for various classes of multivariate time series processes is developed. For the share price prediction problem, a vector autoregressive model whose parameters are enriched with the maximum likelihood commonalities is designed. In both these learning problems, the spectral factor model gives commendable performance with respect to competing approaches.<p><p>Les processus informatisés actuels génèrent des quantités massives de flux de données. Dans nombre d'applications, ces flux de données sont collectées en vue de modéliser les processus. Les modèles de processus obtenus ont pour but la réalisation d'objectifs tels que l'aide à la décision, la visualisation de données, l'informatique décisionnelle, l'automatisation et le contrôle, la reconnaissance de formes et la classification, etc. La modélisation de processus sur la base de données implique cependant de faire face à d’importants défis. Outre les erreurs, les données aberrantes et le bruit, le principal défi provient de la large dimensionnalité, i.e. du nombre de variables dans chaque échantillon de données mesurées. Les échantillons forment souvent une longue séquence temporelle appelée série temporelle multivariée, où chaque échantillon est influencé par les autres. Notre objectif est de construire un modèle robuste qui garantisse la génération, la révision et la représentation de nouvelles séries temporelles multivariées cohérentes avec le processus sous-jacent.<p><p>Dans cette thèse, nous adoptons un cadre de modélisation capable d’extraire, à partir de séries temporelles multivariées, des caractéristiques correspondant à des variations - covariations dynamiques communes aux variables mesurées dans tous les échantillons. Ces caractéristiques sont appelées «points communs» et une mesure qui leur est appropriée est définie. Ce qui rend le modèle de séries temporelles multivariées polyvalent est l'hypothèse relative à l'existence de séries temporelles latentes de caractéristiques connues ou présumées et de dimensionnalité beaucoup plus faible que les séries temporelles mesurées; le résultat est le bien connu «modèle factoriel dynamique». Des variantes originales de méthodes existantes pour estimer le modèle factoriel dynamique sont développées :l'estimation est réalisée en utilisant l'équivalent du modèle factoriel dynamique au niveau du domaine de fréquence, désigné comme le «modèle factoriel spectral». Pour estimer le modèle factoriel spectral, nous nous basons sur des idées relatives à la théorie des estimations spectrales. Cette théorie est utilisée pour aboutir à une formulation probabiliste, qui fournit des estimations de probabilité maximale pour les paramètres du modèle factoriel spectral. Des paramètres de probabilité maximale sont alors développés, en plaçant notre analyse entièrement dans le domaine spectral, de façon à ce que les séries temporelles latentes transformées dynamiquement héritent au maximum des points communs.<p><p>La principale contribution de cette thèse consiste en un cadre d'apprentissage utilisant le modèle factoriel spectral. Nous désignons par apprentissage la capacité d'un modèle de processus à caractériser de façon robuste les données générées par le processus à des fins de filtrage par motif, classification et prédiction. Dans ce contexte, le modèle factoriel spectral est considéré comme ayant appris une série temporelle multivariée si la série temporelle latente, une fois dynamiquement transformée, permet d'extraire les points communs de façon fiable et maximale. Le modèle factoriel spectral sera utilisé principalement pour deux applications d'apprentissage de séries multivariées :en premier lieu, des ensembles de données sous forme de flux venant de différents processus du monde réel doivent être classifiés; lors de cet exercice, la classification porte sur des signaux magnétoencéphalographiques obtenus chez l'homme au cours de différentes tâches physiques et cognitives; en second lieu, les points communs obtenus sont testés en demandant une prédiction fiable d'une série temporelle multivariée étant donnée l'évolution passée; les prix d'un portefeuille d'actions sont prédits dans le cadre de ce défi.<p><p>À la fois pour la modélisation et pour l'apprentissage factoriel spectral, une solution analytique aussi bien qu'une solution itérative sont développées. Tandis que la solution analytique est basée sur une approximation de rang inférieur de la fonction de densité spectrale, la solution itérative est basée, quant à elle, sur l'algorithme de maximisation des attentes. Pour l'exercice de classification des signaux magnétoencéphalographiques humains, une stratégie de comparaison des similitudes entre les points communs des différentes classes de processus de séries temporelles multivariées est développée. Pour le problème de prédiction des prix des actions, un modèle vectoriel autorégressif dont les paramètres sont enrichis avec les points communs de probabilité maximale est conçu. Dans ces deux problèmes d’apprentissage, le modèle factoriel spectral atteint des performances louables en regard d’approches concurrentes. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
42 |
Three essays on spectral analysis and dynamic factorsLiska, Roman 10 September 2008 (has links)
The main objective of this work is to propose new procedures for the general dynamic factor analysis<p>introduced by Forni et al. (2000). First, we develop an identification method for determining the number of common shocks in the general dynamic factor model. Sufficient conditions for consistency of the criterion are provided for large n (number of series) and T (the series length). We believe that our procedure can shed<p>light on the ongoing debate on the number of factors driving the US or Eurozone economy. Second, we show how the dynamic factor analysis method proposed in Forni et al. (2000), combined with our identification method, allows for identifying and estimating joint and block-specific common factors. This leads to a more<p>sophisticated analysis of the structures of dynamic interrelations within and between the blocks in suchdatasets.<p>Besides the framework of the general dynamic factor model we also propose a consistent lag window spectral density estimator based on multivariate M-estimators by Maronna (1976) when the underlying data are coming from the alpha mixing stationary Gaussian process. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
43 |
Optimal inference for one-sample and multisample principal component analysisVerdebout, Thomas 24 October 2008 (has links)
Parmi les outils les plus classiques de l'Analyse Multivariée, les Composantes Principales sont aussi un des plus anciens puisqu'elles furent introduites il y a plus d'un siècle par Pearson (1901) et redécouvertes ensuite par Hotelling (1933). Aujourd'hui, cette méthode est abondamment utilisée en Sciences Sociales, en Economie, en Biologie et en Géographie pour ne citer que quelques disciplines. Elle a pour but de réduire de façon optimale (dans un certain sens) le nombre de variables contenues dans un jeu de données.<p>A ce jour, les méthodes d'inférence utilisées en Analyse en Composantes Principales par les praticiens sont généralement fondées sur l'hypothèse de normalité des observations. Hypothèse qui peut, dans bien des situations, être remise en question.<p><p>Le but de ce travail est de construire des procédures de test pour l'Analyse en Composantes Principales qui soient valides sous une famille plus importante de lois de probabilité, la famille des lois elliptiques. Pour ce faire, nous utilisons la méthodologie de Le Cam combinée au principe d'invariance. Ce dernier stipule que si une hypothèse nulle reste invariante sous l'action d'un groupe de transformations, alors, il faut se restreindre à des statistiques de test également invariantes sous l'action de ce groupe. Toutes les hypothèses nulles associées aux problèmes considérés dans ce travail sont invariantes sous l'action d'un groupe de transformations appellées monotones radiales. L'invariant maximal associé à ce groupe est le vecteur des signes multivariés et des rangs des distances de Mahalanobis entre les observations et l'origine. <p><p>Les paramètres d'intérêt en Analyse en composantes Principales sont les vecteurs propres et valeurs propres de matrices définies positives. Ce qui implique que l'espace des paramètres n'est pas linéaire. Nous développons donc une manière d'obtenir des procédures optimales pour des suite d'experiences locales courbées. <p>Les statistiques de test introduites sont optimales au sens de Le Cam et mesurables en l'invariant maximal décrit ci-dessus.<p>Les procédures de test basées sur ces statistiques possèdent de nombreuses propriétés attractives: elles sont valides sous la famille des lois elliptiques, elles sont efficaces sous une densité spécifiée et possèdent de très bonnes efficacités asymptotiques relatives par rapport à leurs concurrentes. En particulier, lorsqu'elles sont basées sur des scores Gaussiens, elles sont aussi efficaces que les procédures Gaussiennes habituelles et sont bien plus efficaces que ces dernières si l'hypothèse de normalité des observations n'est pas remplie. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
44 |
Évaluation analytique d’anticorps monoclonaux thérapeutiques à visée anticancéreuse dans le contexte hospitalier : nouvelles approches / Analytical evaluation of anticancer monoclonal antibody in hospitals : new approachesJaccoulet, Emmanuel 07 February 2017 (has links)
Les anticorps monoclonaux (Acms) représentent une part importante des traitements médicamenteux à visées anticancéreuses à l'hôpital. Leur action ciblée et leur efficacité favorisent leur essor considérable dans le monde pharmaceutique. Leur reconstitution est nécessaire avant d'être administré par voie intraveineuse chez le patient. A l’heure actuelle, il n’existe pas de contrôle rigoureux permettant leur indentification. Compte-tenu de leurs propriétés physico-chimiques similaires leur discrimination par un contrôle analytique hospitalier pré-libératoire est un véritable défi. Dans cette thèse trois nouvelles approches ont été explorées pour permettre la discrimination et l'identification rapide d’un mélange de quatre anticorps monoclonaux après reconstitution: le bevacizumab, le cetuximab, le rituximab et le trastuzumab. Parmi ces approches, deux portent sur des méthodes séparatives : la chromatographie d'échange de cations sur support monolithique et l'électrophorèse capillaire de zone. Les conditions d'analyse de ces méthodes ont été optimisées dans l'objectif d’une identification rapide et fiable. Nous avons également étudié les paramètres intrinsèques des anticorps monoclonaux influençant leur séparation. La troisième approche est basée sur une méthode spectrale ultra-rapide par spectroscopie UV dérivée associant l'analyse par injection en flux et l'analyse multivariée. L'étude des données spectrales par l'analyse multivariée nous a permis de concevoir un algorithme capable de discriminer sans ambigüité les anticorps monoclonaux à partir de leurs informations spectrales. / Anticancer monoclonal antibodies (mAbs) represent a large part of anticancer drugs at hospital. Their success is related to their capacity to specifically interact with their target with relatively low adverse effects. mAbs must be compounded at the hospital before patient's infusion. They exhibit common features rendering their discrimination through fast analytical methods difficult. At the hospital, quality controls mainly rely on mAbs identity and quantity compliance. However, identity of compounds with high similarity remains challenging. In this thesis, three new approaches for the discrimination and the identification of four mAbs, bevacizumab, cetuximab, rituximab and trastuzumab have been investigated. Among them, two approaches are based on separation methods Cation exchange chromatography on a monolithic stationary phase and capillary electrophoresis. The analytical conditions were extensively optimized to obtain rapid and suitable method allowing their discrimination. We have also studied the influence of their physico-chemical properties on their separations. The third approach relies on a rapid second derivative spectral method combining flow injection analysis and multivariate analysis. An algorithm able to discriminate accurately the monoclonal antibodies has been designed from in-depth study of the spectral data through multivariate analysis.
|
45 |
Rôle des ingrédients et des conditions de cuisson dans la qualité et réactivité des produits céréaliers : le cas du furane et des composés odorants dans la génoise / How ingredients and baking conditions impact quality and reactivity : the case of furan and aroma generation in sponge cakeCepeda-Vázquez, Mayela 01 December 2017 (has links)
L'un des défis actuels de la chimie alimentaire est de développer des produits avec une qualité sanitaire et sensorielle optimale. Ceci est particulièrement important dans les produits traités thermiquement, tels que les produits céréaliers. Lors de la cuisson et à partir des ingrédients, un nombre considérable de composés peuvent se former. Certains suscitent une préoccupation sanitaire émergente, lorsque d'autres jouent un rôle sensoriel indéniable. Comprendre la réactivité des constituants devient alors un levier puissant pour développer des voies d'amélioration des aliments. Ce travail porte sur les effets des ingrédients et conditions de cuisson dans la génération de furane, composé possiblement cancérigène, et furfural, composé odorant contribuant à l'arôme caractéristique de la génoise. Afin de maîtriser la réactivité et ainsi optimiser la qualité des produits, une approche globale a été adoptée, incluant l'étude des composés volatils, des propriétés physicochimiques et sensorielles et l'appréciation hédonique des consommateurs. Ce travail propose une méthodologie et ouvre des pistes intéressantes pour développer des stratégies efficaces de maîtrise de la qualité globale des produits transformés. / A current challenge for food chemists consists in developing safe yet appealing food. This is particularly difficult in thermally-treated foods, like baked products, since a great number of compounds may be produced during heating. While some of these are of health concern, others contribute to other key aspects of quality, such as aroma or color, revealing the need of considering reactivity into food quality design. This work deals with the effects of formulation and baking conditions on the generation of furan, a heatinduced contaminant, and furfural, contributing typical aroma to sponge cake. Moreover, a holistic approach was adopted, covering volatile generation, physical properties, sensory evaluation and consumer tests, both for further understanding reactivity and optimizing product quality. This work is certainly an important step towards the development of novel strategies for qualitydriven design of heat-treated food.
|
46 |
Multivariate statistical analysis of Hall-Héroult reduction cells : investigation and monitoring of factors affecting performanceTessier, Jayson 17 April 2018 (has links)
Les cuves d'électrolyse utilisées pour la production aluminium sont soumises à des variations de la qualité des matières premières, à des perturbations diverses encourues en cours de production ou en cours de démarrage. Il est connu que ces perturbations ont un impact sur la durée de vie des cuves ainsi que sur l'efficacité de production, métallurgique et énergétique. L'amélioration des performances passe nécessairement par une meilleure compréhension des sources de variations. Plusieurs travaux ont été présentés jusqu'à présent par le biais d'études univariées entre les différents facteurs et les performances. Cependant, dans ces études, le comportement des cuves n'est pas étudié de manière multivariée, ce qui ne permet pas d'étudier les interactions entre les différentes variables. Cette thèse propose d'étudier les facteurs affectant les performances des cuves d'électrolyse, précisément la duré de vie, le rendement Faraday et la consommation énergétique, par le biais de méthodes statistiques multivariées (PCA et PLS). Premièrement, il est démontré que la durée de vie des cuves est expliquée à 72% en utilisant l'information provenant des préchauffages, des démarrages et de l'opération transitoire, démontrant ainsi l'effet de ces étapes sur la durée de vie des cuves. Cette étude est suivie d'une analyse des facteurs affectant l'efficacité de courant et la consommation énergétique des cuves. L'effet de la qualité de l'alumine, des anodes, des variables manipulées, et des variables d'états des cuves permet d'expliquer 50% des variations des performances. Cette étude démontre l'importance du contrôle de la hauteur de bain. Ainsi, une étude approfondie des facteurs affectant la hauteur de bain est effectuée. La composition du produit de recouvrement des anodes a un impact majeur sur la hauteur de bain. Malheureusement, il est présentement impossible de bien effectuer le suivi et le contrôle de cette composition puisque seulement quelques échantillons sont analysés quotidiennement. Afin de palier à ce manque, cette thèse présente une nouvelle approche, basée sur l'analyse d'image, pour prédire la composition du produit de recouvrement. Cette application faciliterait le suivi et le contrôle de la composition, ce qui améliorerait le contrôle de la hauteur de bain permettant ainsi d'améliorer les performances des cuves.
|
47 |
Modélisation des déterminants des activités de transfert de connaissances : une approche centrée sur les courtiers de connaissances œuvrant dans les organisations de santé au CanadaHammami, Hajer 18 April 2018 (has links)
Dans le réseau de la santé, l'enjeu du transfert de connaissances est en plein essor et il est au centre des préoccupations tant des chercheurs que des décideurs. Or, les constats sur le terrain montrent qu'il existe toujours un écart important entre les connaissances disponibles et les façons de les appliquer. Parmi les stratégies qui y sont préconisées, on retrouve les pratiques de courtage de connaissances effectuées par les courtiers de connaissances, dont le rôle est de combler cet écart, de contribuer à transformer la recherche en politiques et d'assurer leur mise en oeuvre. Dans cette perspective, le cadre conceptuel proposé dans cette thèse représente une avenue intéressante, non seulement pour guider l'action des courtiers, mais aussi pour soutenir une réflexion plus large sur leurs activités et les déterminants qui leur sont associés, et ce, afin de contribuer au développement de stratégies plus efficaces de transfert de connaissances dans la prise de décision et d'harmoniser les liens de la recherche et de l'action. Les données utilisées dans cette recherche ont été collectées dans le cadre d'une enquête par questionnaire auprès d'une communauté de pratique (CoP) de 301 courtiers de connaissances effectuant principalement leurs activités professionnelles au sein de la Fondation canadienne de recherche sur les services de santé (FCRSS). Un premier niveau d'analyse des résultats obtenus a permis de décrire le profil des répondants et les caractéristiques de leurs activités de transfert de connaissances. Pour compléter ce portrait, des analyses bivariées des activités de transfert de connaissances au regard des lieux d'affiliation dans lesquels les courtiers évoluent, de leurs derniers diplômes obtenus et de leur statut professionnel, ont été effectuées. Dans un deuxième niveau d'analyse, une analyse factorielle en composantes principales a révélé l'organisation des énoncés relatifs au transfert des connaissances en six activités, et ceux relatifs au climat organisationnel en quatre dimensions, lesquels représentent les variables d'intérêt de ma thèse, suivie de l'analyse factorielle confirmatoire afin de confirmer la structure de ces construits. Par ailleurs, les mêmes analyses ont été effectuées pour les autres variables ii latentes du modèle, à savoir la culture organisationnelle et l'interaction sociale, qui montrent que ces deux construits sont unidimensionnels. Un troisième niveau d'analyses a été réalisé pour identifier les facteurs associés aux activités de transfert. Pour ce faire, deux modèles d'estimation ont été développés. Une première modélisation porte sur l'estimation par les régressions multiples qui permettent un traitement non simultané des hypothèses liées à la relation directe entre des variables explicatives et les activités de transfert de connaissances. Une deuxième modélisation porte sur les équations structurelles qui permettent d'étudier, d'une part, les effets directs et indirects du climat organisationnel ainsi que ses dimensions composites sur les activités de transfert de connaissances, et d'autre part, il s'agit de tester empiriquement un modèle structurel global, en traitant de manière simultanée l'ensemble des relations directes et indirectes entre les variables endogènes et exogènes. Les résultats des analyses de régressions multiples montrent les différences d'association entre les variables explicatives et les six variables dépendantes. / Nous constatons que l'interaction sociale et la culture organisationnelle sont les seules variables qui ont exercé un impact significatif et positif sur l'ensemble des six activités de transfert de connaissances. Pour ce qui est des dimensions du climat organisationnel, les différents lieux d'affiliation, la capacité cognitive, et le statut, leurs effets significatifs ainsi que leurs ampleurs varient d'une activité de transfert à l'autre. Les résultats des analyses des équations structurelles font ressortir deux principaux constats : le premier, relatif aux variables exerçant des effets directs sur les activités de transfert de connaissances qui sont le climat organisationnel, l'interaction sociale, les lieux d'affiliation, la capacité cognitive; le deuxième, relatif aux variables entraînant des effets indirects sur les activités de transfert de connaissances. Ces effets indirects retracés se manifestent via les variables médiatrices telles que le climat organisationnel et l'interaction sociale. L'identification de tous ces déterminants a permis de proposer des leviers d'actions pouvant soutenir les activités de transfert de connaissances réalisées par les courtiers et d'évaluer les effets qu'ils ont sur les processus décisionnels au sein des organisations de santé.
|
48 |
Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transportYélou, Clément 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Dans cette thèse, nous étudions deux problèmes économétriques qui portent sur l'inférence statistique dans des contextes économétriques où les méthodes habituelles ne sont pas fiables. Le premier problème porte sur des tests de rupture applicables dans les modèles multivariées et valides dans les échantillons finis. La plupart des tests de changement structurel disponibles sont des procédures asymptotiquement valides pour les modèles multivariés. D'abord, nous montrons que la majorité des tests de rupture les plus populaires souffrent de sérieux problèmes de taille. Ensuite, nous proposons trois types de tests de stabilité valides en échantillon fini: des versions exactes du test de rupture proposée par Bai, Lumsdaine et Stock (1998), des tests prédictifs multivariés, et des extensions du test de détection de valeurs aberrantes dû à Wilks (1963). Les statistiques de test proposées sont pivotales, de sorte que nous appliquons la méthode de test Monte Carlo pour obtenir des valeurs p (p-values) exactes. Ces procédures de test sont valides pourvu que la distribution multivariée des termes d'erreurs soit spécifiée à une matrice inversible près (l'hypothèse de normalité n'est pas nécessaire). Nous avons fait une étude de simulation pour évaluer les propriétés de niveau et de puissance des tests. Nous avons appliqué ces tests à un système de demande d'énergie estimé à partir des données annuelles canadiennes. Nos résultats illustrent, entre autres, les effets des chocs pétroliers et de la déréglementation des prix sur la demande d'énergie. Le deuxième sujet de recherche de cette thèse concerne les méthodes robustes à la non-identification et aux problèmes de frontière pour estimer des transformations non-linéaires des paramètres (i.e. le ratio de paramètres). Ce problème se rencontre dans plusieurs contextes économétriques, notamment dans l'estimation de la valeur du temps de voyage dans les modèles de demande de transport, ou dans l'inférence sur les élasticités de la demande ou de l'offre. Nous avons consacré deux textes à ce problème; le premier texte porte sur les développements théoriques généraux et quelques applications aux modèles de choix discret estimés par le maximum de vraisemblance analytique ou simulé; le second texte se concentre sur l'estimation des élasticités de la demande par rapport au prix et au revenu dans une équation dynamique de demande d'énergie. Pour le problème de l'estimation des ratios de paramètres, la méthode delta demeure la méthode la plus utilisée pour déterminer les intervalles de confiance correspondants. D'abord, nous mettons en évidence à l'aide d'études de simulation (basées sur des modèles de choix discret dans le premier texte et sur un modèle de régression dynamique dans le second) que la performance de l'intervalle de confiance obtenue à l'aide d'une méthode alternative du type de Fieller n'est pas affectée par les difficultés d'identification alors que le taux de couverture empirique de l'intervalle de confiance de la méthode delta s'éloigne énormément du niveau nominal lorsque le dénominateur devient proche de zéro, et ce pour toutes les tailles d'échantillon (petites et grandes). Ensuite, nous obtenons les expressions analytiques, simples à calculer, des bornes des ensembles de confiance simultanés, obtenus par projection, pour toute transformation linéaire scalaire d'un nombre fini de ratios de paramètres ayant un même dénominateur. En conséquence, l'utilisation de la méthode delta devrait être évitée dans ces contextes, alors que la méthode de Fieller est très prometteuse. Nos résultats utilisent de manière appropriée la géométrie des quadriques, récemment introduite en économétrie par Dufour et Taamouti (2005b) dans un context différent du nôtre mais relié. Nous illustrons la pertinence des méthodes que nous proposons à l'aide de deux études empiriques. La première analyse l'estimation de la valeur du temps de voyage dans divers modèles de demande de transport, et la seconde considère un modèle dynamique univarié de demande d'énergie spécifié pour le Québec (Canada). Étant donné qu'une procédure exacte existe [Dufour et Kiviet (1996,1998)] pour cette dernière situation, nous comparons la méthode de Fieller à la méthode exacte. Nos résultats montrent que la méthode de Fieller apparaît très prometteuse pour le problème de l'inférence statistique pour des ratios de paramètres. / In this thesis, we address two econometric problems related to statistical inference in econometric contexts where standard methods are unreliable. The first problem concerns finite-sample-motivated multivariate structural break tests. Most existing structural change tests are asymptotically justified in multivariate models. First we document serious size distortions associated with the most popular multivariate break tests. Next we propose three alternative finite sample structural change tests: exact versions of Bai, Lumsdaine and Stock (1998)'s break test, alternative multivariate predictive test procedures, and extensions of Wilks (1963)'s multivariate outliers test. Our proposed test statistics are pivotal, so we apply the Monte Carlo test method to obtain exact p-values. These procedures are valid provided the multivariate distribution of the error terms is specified up to an unknown non-singular matrix (normality is not strictly required). A large scale simulation study is conducted to assess the size and power properties of the proposed tests. Our tests are applied to an energy demand System estimated with annual Canadian data; our results illustrate the effects of oil shocks and price deregulation. The second research topic of this thesis concerns identification-robust estimation of non-linear parameter transformations (e.g. parameter ratio) allowing for boundary problems. This issue arises in a variety of econometric contexts, including estimation of value-of-time in transportation research, or inference on elasticities in demand or cost analysis. We devote two papers to this problem; the first paper provides general theoretical developments and an application to discrete choice models estimated by exact or simulation-based maximum likelihood while the second one focuses on the estimation of long run price and income elasticities in a dynamic demand equation. For the problem of estimating ratios, the delta method remains the commonly used method to derive associated confidence intervals. First we provide simulation-based evidence (for discrete choice models in the first paper and a dynamic regression model in the second paper) that an alternative Fieller-type method is immune to identification difficulties whereas the coverage rate of the confidence set based on the delta method deteriorates rapidly as the denominator becomes close to zéro, for ail sample sizes (small and large). Second, we derive easy-to-compute explicit solutions for projection-based simultaneous confidence limits for scalar linear transformations of a finite number of parameter ratios with a common denominator. Our derivations conveniently make use of quadrics mathematical tools, recently introduced to econometrics by Dufour and Taamouti (2005b), in a different although related context. We illustrate the usefulness of our proposed procedures via two empirical studies. The first focuses on the estimation of value-of-time in various transportation demand models, and the second analyses a univariate first-order dynamic energy demand model for Québec (Canada). Since an exact procedure [Dufour and Kiviet (1996, 1998)] is available - yet is computationally more demanding - for the latter context, we compare the Fieller method with the exact one. Our results show that the Fieller method seems very promising for inference on parameter ratios.
|
49 |
Recherche de Supersymétrie à l’aide de leptons de même charge électrique dans l’expérience ATLASTrépanier, Hubert 08 1900 (has links)
La théorie de la Supersymétrie est étudiée ici en tant que théorie complémentaire au Modèle Standard, sachant que celui-ci n'explique qu'environ 5% de l'univers et est incapable de répondre à plusieurs questions fondamentales en physique des particules. Ce mémoire contient les résultats d'une recherche de Supersymétrie effectuée avec le détecteur ATLAS et utilisant des états finaux contenant entre autres une paire de leptons de même charge électrique ou trois leptons. Les données proviennent de collisions protons-protons à 13 TeV d'énergie dans le centre-de-masse produites au Grand Collisionneur de Hadrons (LHC) en 2015. L'analyse n'a trouvé aucun excès significatif au-delà des attentes du Modèle Standard mais a permis tout de même de poser de nouvelles limites sur la masse de certaines particules supersymétriques. Ce mémoire contient aussi l'étude exhaustive d'un bruit de fond important pour cette analyse, soit le bruit de fond provenant des électrons dont la charge est mal identifiée. L'extraction du taux d'inversion de charge, nécessaire pour connaître combien d'événements seront attribuables à ce bruit de fond, a démontré que la probabilité pour que la charge d'un électron soit mal identifiée par ATLAS variait du dixième de pourcent à 8-9% selon l'impulsion transverse et la pseudorapidité des électrons. Puis, une étude fut effectuée concernant l'élimination de ce bruit de fond via l'identification et la discrimination des électrons dont la charge est mal identifiée. Une analyse multi-variée se servant d'une méthode d'apprentissage par arbres de décision, basée sur les caractéristiques distinctives de ces électrons, montra qu'il était possible de conserver un haut taux d'électrons bien identifiés (95%) tout en rejetant la grande majorité des électrons possédant une charge mal identifiée (90-93%). / Since the Standard Model only explains about 5% of our universe and leaves us with a lot of open questions in fundamental particle physics, a new theory called Supersymmetry is studied as a complementary model to the Standard Model. A search for Supersymmetry with the ATLAS detector and using final states with same-sign leptons or three leptons is presented in this master thesis. The data used for this analysis were produced in 2015 by the Large Hadron Collider (LHC) using proton-proton collisions at 13 TeV of center-of-mass energy. No excess was found above the Standard Model expectations but we were able to set new limits on the mass of some supersymmetric particles. This thesis describes in detail the topic of the electron charge-flip background, which arises when the electric charge of an electron is mis-measured by the ATLAS detector. This is an important background to take into account when searching for Supersymmetry with same-sign leptons. The extraction of charge-flip probabilities, which is needed to determine the number of charge-flip events among our same-sign selection, was performed and found to vary from less than a percent to 8-9% depending on the transverse momentum and the pseudorapidity of the electron. The last part of this thesis consists in a study for the potential of rejection of charge-flip electrons. It was performed by identifying and discriminating those electrons based on a multi-variate analysis with a boosted decision tree method using distinctive properties of charge-flip electrons. It was found that we can reject the wide majority of mis-measured electrons (90-93%) while keeping a very high level of efficiency for well-measured ones (95%).
|
50 |
Développement d'une technique optique ayant pour but l'analyse de procédés en ligne de comprimés pharmaceutiquesCournoyer, Antoine January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
Page generated in 0.0784 seconds