Spelling suggestions: "subject:"factories""
61 |
Analyse factorielle de données structurées en groupes d'individus : application en biologie / Multivariate data analysis of multi-group datasets : application to biologyEslami, Aida 21 October 2013 (has links)
Ce travail concerne les analyses visant à étudier les données où les individus sont structurés en différents groupes (données multi-groupes). La thèse aborde la question des données multi-groupes ayant une structure en un seul tableau, plusieurs tableaux, trois voies et deux blocs (régression). Cette thèse présente plusieurs méthodes d'analyse de données multi-groupes dans le cadre de l'analyse factorielle. Notre travail comporte trois parties. La première partie traite de l'analyse de données multi-groupes (un bloc de variables divisé en sous-groupes d'individus). Le but est soit descriptif (analyse intra-groupes) ou prédictif (analyse discriminante ou analyse inter-groupe). Nous commençons par une description exhaustive des méthodes multi-groupes. En outre, nous proposons deux méthodes : l'Analyse Procrustéenne duale et l'Analyse en Composantes Communes et Poids Spécifiques duale. Nous exposons également de nouvelles propriétés et algorithmes pour l'Analyse en Composantes Principales multi-groupes. La deuxième partie concerne l'analyse multi-blocs et multi-groupes et l'analyse trois voies et multi-groupes. Nous présentons les méthodes existantes. Par ailleurs, nous proposons deux méthodes, l'ACP multi-blocs et multi-groupes et l'ACP multi-blocs et multi-groupes pondérée, vues comme des extensions d'Analyse en Composantes Principales multi-groupes. L'analyse en deux blocs et multi-groupes est prise en compte dans la troisième partie. Tout d'abord, nous présentons des méthodes appropriées pour trouver la relation entre un ensemble de données explicatives et un ensemble de données à expliquer, les deux tableaux présentant une structure de groupe entre les individus. Par la suite, nous proposons quatre méthodes pouvant être vues comme des extensions de la régression PLS au cas multi-groupes, et parmi eux, nous en sélectionnons une et la développons dans une stratégie de régression. Les méthodes proposées sont illustrées sur la base de plusieurs jeux de données réels dans le domaine de la biologie. Toutes les stratégies d'analyse sont programmées sur le logiciel libre R. / This work deals with multi-group analysis, to study multi-group data where individuals are a priori structured into different groups. The thesis tackles the issue of multi-group data in a multivariate, multi-block, three-way and two-block (regression) setting. It presents several methods of multi-group data analysis in the framework of factorial analysis. It includes three sections. The first section concerns the case of multivariate multi-group data. The aim is either descriptive (within-group analysis) or predictive (discriminant analysis, between-group analysis). We start with a comprehensive review of multi-group methods. Furthermore, we propose two methods namely Dual Generalized Procrustes Analysis and Dual Common Component and Specific Weights Analysis. We also exhibit new properties and algorithms for multi-group Principal Component Analysis. The second section deals with multiblock multi-group and three-way multi-group data analysis. We give a general review of multiblock multi-group methods. In addition, we propose two methods, namely multiblock and multi-group PCA and Weighted-multiblock and multi-group PCA, as extensions of multi-group Principal Component Analysis. The two-block multi-group analysis is taken into account in the third section. Firstly, we give a presentation of appropriate methods to investigate the relationship between an explanatory dataset and a dependent dataset where there is a group structure among individuals. Thereafter, we propose four methods, namely multi-group PLS, in the PLS approach, and among them we select one and develop it into a regression strategy. The proposed methods are illustrated on the basis of several real datasets in the field of biology. All the strategies of analysis are implemented within the framework of R.
|
62 |
Caractérisation des tumeurs et de leur évolution en TEP/TDM au ¹⁸F-FDG pour le suivi thérapeutique / Characterization of the tumors and their evolutions using PET/CT for treatment followingMaisonobe, Jacques-Antoine 13 December 2012 (has links)
La Tomographie par Emission de Positons (TEP) au Fluoro-déoxyglucose marqué au Fluor 18 (¹⁸F-FDG), analogue du glucose, permet d'obtenir une image de la consommation de glucose dans l'organisme. La plupart des foyers tumoraux présentant une consommation excessive de glucose, son utilisation en oncologie permet d'améliorer la prise en charge des patients en diminuant le temps nécessaire pour évaluer l'efficacité des traitements tels que la chimiothérapie et la radiothérapie. Mon projet de recherche visait à proposer et améliorer des méthodes de quantification en TEP au ¹⁸F-FDG afin de caractériser au mieux l'évolution métabolique des volumes tumoraux.De nombreux facteurs biaisent la quantification en TEP. Parmi eux, l'Effet de Volume Partiel (EVP) reste difficile à corriger, notamment à cause de la faible résolution spatiale des images TEP. Afin de déterminer l'impact de la correction de l’EVP sur l’évaluation des réponses des tumeurs, une étude sur données simulées par Monte Carlo a tout d’abord été effectuée. Cette étude a été complétée par l’analyse de données TEP/TDM (Tomodensitométrie) acquises chez 40 patients atteints de cancers colorectaux métastatiques (CCM), traités par chimiothérapie à l'Institut Jules Bordet (Bruxelles). L’analyse de 101 tumeurs a montré que les critères tels que le SUV, n’incluant pas de correction de l'EVP, et qui reflètent alors le volume tumoral et son activité, prédisaient mieux l’évolution tumorale que les critères corrigés de l’EVP. Compte tenus des résultats prometteurs récents de méthodes de caractérisation de l’hétérogénéité de la fixation du FDG dans les tumeurs, un second volet de notre travail a consisté à étudier l’intérêt de la prise en compte de la texture dans le cadre du suivi thérapeutique. L’application de l’analyse de texture aux cas de CCM étudiés précédemment n’a pas permis de démontrer une valeur ajoutée des indices de texture par rapport aux index quantitatifs couramment employés en clinique. Nous avons montré que cette conclusion s’expliquait en partie par la non-robustesse des indices de texture vis-à-vis des paramètres impliqués dans leur mesure. Nous avons enfin cherché à évaluer une méthode d’Analyse Factorielle de Séquences d’Images Médicales (AFSIM), appliquée au contexte du suivi thérapeutique, pour caractériser l’évolution tumorale tout au long du traitement. Cette étude a porté sur 9 séries de 4 à 6 examens TEP/TDM de patients traités par radiothérapie au Centre Hospitalier Universitaire Henri Becquerel de Rouen. Outre l’information visuelle globale apportée par cette méthode, l’analyse quantitative des résultats obtenus a permis de caractériser l’hétérogénéité de la réponse vue par l’AFSIM. L’échec des index classiques, provenant entre autres de leur incapacité à distinguer les processus inflammatoires de l’activité métabolique tumorale, a permis de monter la valeur ajoutée de l’AFSIM par rapport aux index tels que le SUV maximal ou moyen. / Positron Emission Tomography (PET) using ¹⁸F-FluoroDeoxyGlucose (¹⁸F-FDG), a radiolabelled analogue of the glucose, is used to get an image of the glucose consumption in the body. As most tumor masses show a high glucose consumption, PET is widely used in oncology for diagnosis and patient monitoring. In the context of patient monitoring, the motivation is to decrease the time interval needed to assess treatment (radiotherapy or chemotherapy efficieny) compared to therapeutic follow-up based only on anatomic imaging only (Computed Tomography or Magnetic Resonance Imaging). My research project aimed at proposing and improving quantitative methods in FDG-PET to better characterize tumor evolution.In PET, many factors affect the accuracy of parameters estimated from the images. Among them, Partial Volume Effect (PVE) remains difficult to correct, mainly due to the low spatial resolution of PET images. To determine the impact of PVE on treatment response evaluation, a preliminary study was performed using Monte Carlo simulated PET scans. An additional study was conducted based on the analysis of the PET/CT (Computed Tomography) data of 40 Metastatic Colorectal Cancer (MCC) patients treated with chemotherapy at the Jules Bordet Institute (Brussels, Belgium). The analysis of the 101 tumors showed that criteria such as the Standardized Uptake Value (SUV), which does not include PVE correction, were better predictors of tumors evolutions than PVE corrected criteria. This is because without PVE correction, SUV includes information on both metabolic volume and metabolic activity, which are two relevant pieces of information to characterize the tumor. A second part of our work was to study the potential of tumor texture analysis in patient monitoring, following promising results reported in the literature. Texture analysis was applied to the MMC patients data previously mentioned but did allow to a better segregation of tumors responses as compared to indices currently used in the clinics. We found that this was partly due to the lack of robustness of the textures indices.Finally, we evaluated a Factor Analysis in Medical Images Series (FAMIS) method to characterize tumor evolution during treatment. This study focused on 9 series of 4 to 6 PET/CT scans acquired all along the radiotherapy/radio-chemotherapy of patients treated at the Centre Hospitalier Universitaire Henri Becquerel (Rouen, France). In addition to the rich visual information brought by this method, a quantitative analysis of the results made it possible to characterize response heterogeneity as seen using FAMIS. In particular, FAMIS clearly demonstrated the occurrence of inflammatory processes. In addition, due to the low metabolic activity of the tumors at the end of the treatment, many conventional indices could not describe the tumor changes, while FAMIS gave a full assessment of the tumor change over time.
|
63 |
Recherche statistique de biomarqueurs du cancer et de l'allergie à l'arachideCollignon, Olivier 16 October 2009 (has links) (PDF)
La première partie de la thèse traite de la recherche de biomarqueurs du cancer. Lors de la transcription, il apparaît que certains nucléotides peuvent être remplacés par un autre nucléotide. On s'intéresse alors à la comparaison des probabilités de survenue de ces infidélités de transcription dans des ARNm cancéreux et dans des ARNm sains. Pour cela, une procédure de tests multiples menée sur les positions des séquences de référence de 17 gènes est réalisée via les EST (Expressed Sequence Tag). On constate alors que ces erreurs de transcription sont majoritairement plus fréquentes dans les tissus cancéreux que dans les tissus sains. Ce phénomène conduirait ainsi à la production de protéines dites aberrantes, dont la mesure permettrait par la suite de détecter les patients atteints de formes précoces de cancer. La deuxième partie de la thèse s'attache à l'étude de l'allergie à l'arachide. Afin de diagnostiquer l'allergie à l'arachide et de mesurer la sévérité des symptômes, un TPO (Test de Provocation Orale) est réalisé en clinique. Le protocole consiste à faire ingérer des doses croissantes d'arachide au patient jusqu'à l'apparition de symptômes objectifs. Le TPO pouvant se révéler dangereux pour le patient, des analyses discriminantes de l'allergie à l'arachide, du score du TPO, du score du premier accident et de la dose réactogène sont menées à partir d'un échantillon de 243 patients, recrutés dans deux centres différents, et sur lesquels sont mesurés 6 dosages immunologiques et 30 tests cutanés. Les facteurs issus d'une Analyse Factorielle Multiple sont également utilisés comme prédicteurs. De plus, un algorithme regroupant simultanément en classes des intervalles comprenant les doses réactogènes et sélectionnant des variables explicatives est proposé, afin de mettre ensuite en compétition des règles de classement. La principale conclusion de cette étude est que les mesures de certains anticorps peuvent apporter de l'information sur l'allergie à l'arachide et sa sévérité, en particulier ceux dirigés contre rAra-h1, rAra-h2 et rAra-h3.
|
64 |
Analyse et Optimisation des performances d'un capteur de gaz à base de SnO2 nanoparticulaire : Application à la détection de CO et CO2.Tropis, Cyril 07 December 2009 (has links) (PDF)
Les micro-capteurs de gaz connaissent un intérêt croissant avec le développement des applications « bas-coût » dans les domaines de l'automobile, la domotique ou l'environnement. Pour répondre à cette demande, les micro-capteurs à base d'oxyde métallique présentent des avantages uniques comme leur faible coût, une grande sensibilité, un temps de réponse bref et facile à intégrer dans un système portable miniaturisé. Cependant, ces capteurs tels qu'ils sont aujourd'hui, souffrent d'un manque de sélectivité et d'une dérive de leurs performances à long terme, ce qui freine leur développement. D'autre part, la détection du dioxyde de carbone, qui représente un intérêt grandissant, semblait particulièrement difficile avec ce type de capteur. Dans ce contexte, l'objet de ce travail consiste d'une part à bien comprendre les phénomènes réactionnels observés grâce à la simulation numérique « gaz-surface », d'autre part à définir un mode opératoire « robuste » permettant d'obtenir une meilleure stabilité et surtout améliorer la sélectivité. Tout d'abord, nous avons étudié les paramètres d'un profil de température dynamique pour améliorer significativement les performances du capteur. Par la suite, un modèle de connaissance des mécanismes de réaction à été développé afin de mieux interpréter, comprendre et prévoir le comportement de ces capteurs. Ce modèle a la particularité de simuler les transferts de charge en surface de la couche sensible en s'appuyant sur des calculs ab-initio. Enfin, nous avons travaillé sur la modélisation de la réponse. Un modèle d'interpolation très performant adapté au problème a été étudié dans un système décisionnel. La convergence de ces trois approches a permis une meilleure compréhension du fonctionnement du capteur avec du CO et du CO2 et la détermination d'un protocole de mesure optimal avec une optimisation du traitement du signal de la réponse électrique.
|
65 |
Géologie du Précambrien terminal (III) et traitement statistique des données géochimiques de prospection, dans la boutonnière de Bou Azzer - El Graara (Anti-Atlas, Maroc)Azizi Samir, Moulay 21 December 1990 (has links) (PDF)
Cette étude est effectuée dans la zone de suture panafricaine de Bou Azzer-EI Graara (Anti-Atlas, Maroc). Elle s'articule en deux volets: d'une part, l'étude géologique et géodynamique du Précambrien Terminal (III) qui sert de support aux traitements statistiques de l'information géochimique de prospection récoltée dans le district de Tamdrost-Ambed d'autre part. 1) Un découpage lithostratigraphique des formations volcaniques du PIII est obtenu grâce à la cartographie détaillée au 1/4000e du district de Tamdrost-Ambed et aux coupes géologiques levées en d'autres points de la boutonnière. Ceci a permis d'établir une coupe synthétique et des corrélations lithostratigraphiques. L'étude pétrographique des roches volcaniques à prédominance pyroclastique de cette série montre leur rattachement à un magmatisme calco-alcalin, d'âge compris entre 580 et 560 Ma, dont la signification est discutée dans le cadre géodynamique régional. L'analyse structurale des formations volcaniques et volcano-sédimentaires du Précambrien III, conduit à la mise en évidence de déformations synvolcaniques en régime distensif (NW -SE) et à la détermination des paléochamps de contraintes associés aux déformations observées. Le modèle d'extension proposé implique des mouvements de coulissement senestres le long de grands décrochements régionaux parallèles à la suture, entre le craton ouest-africain et le domaine panafricain "mobile". II) Le traitement des données géochimiques (13000 analyses de 10 éléments majeurs et 24 éléments en traces par Spectrométrie d'émission) aboutit à la mise en évidence d'anomalies élémentaires et multiélémentaires significatives d'indices miniers, indépendants de la lithologie. Ce résultat passe par l'étude de la qualité des données géochimiques qui a conduit à l'évaluation de la précision et à l'application d'une correction empirique de l'erreur analytique. L'analyse statistique des données de prospection est effectuée en plusieurs étapes: - l'utilisation de la technique non conventionnelle "box and whiskers" pour la détermination des seuils anomaux, toutes lithologies confondues; -la diversité lithologique est simplifiée par analyse factorielle en composantes principales sur les médianes pour aboutir à quatre groupes lithologiques au lieu des 32 distingués sur le terrain; . - une analyse discriminante sur ces quatre groupes, désormais connus, aboutit à un modèle factoriel du fond géochimique qui explique mieux les variations liées à la lithologie; - le fond géochimique modélisé est retranché par régression factorielle pour faire apparaitre les anomalies discordantes. Des cartes de synthèse des anomalies multiélémentaires sont établies dans le but d'orienter les campagnes de sondage.
|
66 |
Un point de vue sur des approches factorielles et probabilistes de la covariance. Application à l'analyse locale du mouvementHidot, Sullivan 07 December 2007 (has links) (PDF)
Cette thèse s'intéresse à des approches factorielles et probabilistes de la covariance qui tient compte d'une connaissance exogène sur les observations. Nous adoptons un modèle qui décompose le signal en une fonction déterministe du temps caractérisant la tendance, et en un terme résiduel. Les méthodes factorielles sont consacrées à l'étude du terme tendanciel. Nous présentons le formalisme général de la covariance relationnelle ainsi que de nouvelles propriétés qui éclairent les interprétations et faisons le lien avec les notions déjà existantes. La covariance relationnelle s'intègre dans l'analyse en composantes principales (ACP), l'analyse factorielle d'opérateurs et l'analyse discriminante d'opérateurs.<br />Nous montrons que l'ACP relationnelle est un cas particulier de l'ACP à noyaux et de l'ACP fonctionnelle, dont nous dressons les schémas de dualité correspondants. L'étude du terme résiduel est menée à l'aide d'approches probabilistes fondées sur la covariance. Dans un premier temps, ce terme est assimilé à un vecteur gaussien et nous introduisons une procédure de classification de matrices de covariance par la distribution de Wishart induite par l'hypothèse de gaussianité. En particulier, l'algorithme EM sur matrices de covariance est proposé. Dans un second temps, on procède à l'analyse fractale du terme résiduel, identifié par une trajectoire d'un processus autosimilaire. L'indice d'autosimilarité est estimé quelque soit l'échantillonnage et nous déterminons dans quelle<br />mesure cette contrainte temporelle influe sur l'estimation. Nous appliquons les concepts présentés à l'analyse du mouvement : corpus<br />de mouvements de danse contemporaine (méthodes factorielles et classification par Wishart), et données de biologie marine (segmentation par analyse fractale).
|
67 |
Les effets de pairs à la lumière des interactions entre élèves et des dimensions subjectives du vécu scolaireRoco Fossa, Rodrigo 27 June 2011 (has links) (PDF)
Le présent travail de thèse aborde la problématique des effets de pairs en contexte scolaire. A partir de l'analyse détaillée d'une large base des données issue d'une enquête nationale au Chili (SIMCE 2004), on s'interroge sur les mécanismes qui véhiculent les influences entre élèves différemment dotés d'un point de vue de leurs capitaux culturels, humains et scolaires. Ces influences sembleraient présentes sur différents résultats à l'école, y compris ceux de type académique. Considérant la littérature produite sous différentes approches disciplinaires --sociologie, économie, psychologie sociale et sciences de l'éducation -- on s'attarde sur les manières d'identifier et de mesurer lesdits effets de pairs. En même temps, on considère la présence de dimensions subjectives capables d'exprimer, en partie, le vécu scolaire des élèves. Ces dimensions seraient, par ailleurs, reliées à la présence des pairs et aux interactions entre élèves. De manière additionnelle, on propose une révision de la littérature sur le système scolaire au Chili, notamment sur sa segmentation socio-scolaire et sa relation avec le mécanisme de vouchers. Dans ce cadre, trois interrogations principales organisent ce travail. D'une part, l'existence ou non d'un impact net sur les acquis scolaires des pratiques d'étude faisant appel aux camarades. Ensuite, la présence probable des influences sous la forme des " transferts des capitaux " entre élèves différemment dotés et déclarant pratiquer l'entraide. Enfin, les relations qui s'avèrent visibles entre ces pratiques et des dimensions telles que le bien-être à l'école ou le concept du soi académique, mais aussi, entre ces dernières et les acquis scolaires. Une séquence d'analyses est entreprise visant à donner des bases robustes aux éventuelles réponses à ces questions. Entre autres, différentes séries d'analyses de régression hiérarchique et par quantiles ont été conduites sur quatre disciplines scolaires. Les principaux résultats de recherche indiquent, d'un côté, que les interactions entre élèves sont assez répandues en milieux scolaire (entre 22% et 41% en moyenne), mais leur proportion varie d'une discipline à l'autre et selon la direction qui prend l'aide. Plus encore, ces interactions sont significativement liées aux résultats scolaires. A conditions comparables, les élèves académiquement faibles gagnent à être aidés par leurs camarades, quelque soit la discipline concernée. En même temps, les élèves qui aident leurs camarades montrent toujours un profil académique fortement associé à des gains de score assez importants. D'un autre côté, on trouve que les élèves possédant plus de capital culturel ont, toutes choses égales par ailleurs, de plus fortes chances de déclarer aider leurs camarades. Enfin, les analyses confirment que les interactions entre élèves sont, de manière importante et significative, liées aux sentiments de bien-être à l'école et au concept de soi académique. La construction d'indices pertinents pour ces derniers est, d'ailleurs, discutée. Différents résultats secondaires ont été aussi produits et discutés, notamment la confirmation, pour la première fois dans le cas chilien, des hypothèses associées au paradigme BFLPE (Marsh, 1987). Ces résultats sont discutés dans leurs probables conséquences en termes de politique éducative, notamment dans le cadre des systèmes éducatifs à forte ségrégation sociale et scolaire.
|
68 |
Factor models, VARMA processes and parameter instability with applications in macroeconomicsStevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90.
Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques?
Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité.
Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada.
Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci.
Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs.
L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement.
Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis.
Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models?
This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability.
The first article analyzes the monetary transmission mechanism in Canada using a
factor-augmented vector autoregression (FAVAR) model. For small open economies
like Canada, uncovering the transmission mechanism of monetary policy using VARs
has proven to be an especially challenging task. Such studies on Canadian data have
often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy.
As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series.
In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters.
In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation.
The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
|
69 |
La théorie de l'arbitrage et l'évaluation des actifs financiers dans le cadre internationalFontaine, Patrice 29 May 1986 (has links) (PDF)
L'objet de cette étude est de considérer le modèle d'arbitrage dans l'environnement international ; ceci afin de donner une alternative aux modèles internationaux d'équilibre des actifs financiers. Dans un première approche, nous avons mis en évidence que la relation fondamentale du modèle d'arbitrage n'est pas exactement vérifiée. Cependant, et malgré certaines critiques du modèle d'arbitrage, celui-ci est cohérent sur le plan théorique et de plus, il est falsifiable. Nous avons alors réalisé une analyse empirique de ce modèle sur les échantillons d'actions de dix pays. Ce test indique que le modèle est rejeté dans quatre pays. Nous proposons ensuite une extension du modèle d'arbitrage au cadre international. Dans ce modèle international, des facteurs liés aux différents taux de change apparaissent en plus des facteurs traditionnels et ces nouveaux facteurs sont appréciés. Des relations concernant les taux de change et les primes de risques sont alors développées à partir de ce modèle qu'une confrontation empirique ne nous a pas permis de rejeter. Deux à quatre primes de risque sont appréciées selon l'échantillon considéré. Enfin, dans cette partie, est établie une définition de l'intégration financière. Nos tests indiquent alors que le marché mondial n'est pas intégré. En dernier lieu, nous avons tenté d'expliquer les différents facteurs influençant les rentabilités des actifs financiers. Nos résultats empiriques montrent que, soit au niveau mondial, soit au niveau national, les principales variables sont respectivement : le portefeuille de marché, la production et l'inflation
|
70 |
Approche psychométrique du test de Rorschach / Psychometrical approach of the Rorschach testFontan, Patrick 24 November 2014 (has links)
En dépit de ses qualités, le Rorschach en Système Intégré présente des problèmes psychométriques substantiels que le nouveau système Rorschach Performance Assessment System (R-PAS) ne permet pas de résoudre. Aussi, l’objectif principal de la thèse que nous défendons est de développer une approche psychométrique du Rorschach qui soit satisfaisante sur les plans statistique et clinique. Une Analyse Parallèle et Une Analyse en Composantes Principales réalisée sur un échantillon normatif de 695 participants Belges, Français et Finlandais permet de définir un modèle du Rorschach en 12 Composantes. Si ces dimensions sont cohérentes avec les principes de cotation et les connaissances empiriques sur le Rorschach, elles font également apparaître certaines difficultés de cotation, des aspects du Rorschach qui ont été négligés dans la recherche, de même qu’elles remettent en question certains indices du Système Intégré. Ce modèle est appliqué à deux problèmes empiriques : l’expression de particularités culturelles au Rorschach et la capacité du test à identifier des stratégies de résolution de problème (qui est un aspect central du Système Intégré). Les normes américaines du Système Intégré ainsi que les normes internationales du R-PAS ne peuvent s’appliquer de manière universelle et il faut donc recourir à des valeurs de références nationales. De plus, le Rorschach ne permet pas d’identifier des stratégies de résolution de problème de manière fiable. Ces études montrent que certains principes fondamentaux du Système Intégré et du R-PAS sont à remettre en question et qu’il est nécessaire de développer un nouveau système d’interprétation du Rorschach selon une approche psychométrique. / In spite of its quailties, the Rorschach Comprehensive System (RCS) presents substantial psychometric issues which are not solved by the new Rorschach Performance Assessment System (R-PAS). Thus, the main objective of this dissertation is to develop a satisfying psychometrical approach of the Rorschach test. A Parallel Analysis and a Principal Component Analysis performed on a normative sample of 695 Belgian, French and Fins participants define a 12 Components model of the Rorschach. If these dimensions are coherent with scoring principles and empirical evidences for the Rorschach they also reveal some scoring issues, neglected aspects of the Rorschach in the research field as well as they question the validity of some indices of the RCS. This model was applied to two empirical problems : the cross-cultural study of the Rorschach and its ability to assess problem solving strategies (which is a key feature of the RCS). The american norms of the RCS and the international reference values of the R-PAS cannot be used universally and it is necessary to use national norms. Moreover, the Rorschach does not assess problem solving strategies in a satisfying manner. These studies demonstrate that some fondamental principles of the RCS and the R-PAS must be questionned and the necessity to develop a new interpretation system for the Rorschach based on a psychometrical approach.
|
Page generated in 0.0757 seconds