Spelling suggestions: "subject:"réponses ON"" "subject:"deréponses ON""
91 |
Une étude métrologique des items du Level of Service/Case Management Inventory (LS/CMI) avec la contribution de la théorie classique des tests et de la théorie des réponses aux items chez les personnes contrevenantes du QuébecGiguère, Guy 18 April 2018 (has links)
Le dessein de tout instrument actuariel vise à générer un score ou un indice numérique qui permet de prédire le risque qu'un événement se produise. Le domaine de la criminologie s'intéresse tout particulièrement à ce type d'instrument afin de prédire d'une part, le risque qu'une personne contrevenante récidive et, d'autre part, d'identifier les besoins correctionnels en lien avec ce score de risque. La criminologie a produit un nombre considérable d'outils de ce type. L'un des plus connus est le Level Service Case Management Inventory (LS/CMI) qui est, en fait, un inventaire de niveau de service et de gestion des cas appartenant à la dernière génération des outils actuariels d'évaluation du risque. Depuis l'adoption le 7 mai 2002 de la Loi sur le système correctionnel du Québec (LSCQ), loi qui fut mise en vigueur le 5 février 2007, l'implantation d'un tel outil pour évaluer les personnes contrevenantes sous la responsabilité des Services correctionnels représente une première au Québec. En dépit des nombreuses études de validité prédictive réalisées sur des outils tels que le LSI-R et le LS/CMI, la question qui se pose réside dans la pertinence de connaître les qualités métrologiques des items qui les composent. L'analyse des items du LS/CMI vise à combler un vide dans les écrits spécialisés en exploitant les avancées scientifiques des théories de la mesure au profit de la criminologie. Donc, le but poursuivi par cette étude métrologique vise essentiellement à analyser en profondeur la structure interne du LS/CMI en mettant à profit deux théories de la mesure : la théorie classique des tests (TCT) et la théorie des réponses aux items (TRI). Les analyses réalisées dans le cadre de cette recherche portent essentiellement sur les 43 items qui ont été formulés afin d'opérationnaliser les huit dimensions de risque qui constituent la structure interne du LS/CMI. Cette recherche consacrée au LS/CMI tente d'apporter des éléments nouveaux concernant le score de risque. Nous espérons que ces analyses permettront de mieux comprendre et de faire évoluer les méthodes de calcul de la cote de risque tout en mettant à profit les nouvelles théories de la mesure. Les résultats obtenus devraient fournir une nouvelle assise métrologique susceptible de contribuer à l'essor de cette catégorie d'instrument de mesure. La thèse apporte une masse d'information reliée à la structure interne de l'outil. L'ensemble des analyses pourraient avoir une incidence sur la validité prédictive si des mesures correctives sont apportées aux items identifiés comme peu contributifs au score de risque de récidive. L'analyse métrologique réalisée à partir de la théorie classique des tests et de la théorie des réponses aux items a révélé de nombreux items jugés problématiques par la faiblesse soit des indices de difficulté ou des indices de discrimination. Cela dit, nous ne pouvons pas assurer que ces ajustements amélioreraient pour autant la validité prédictive. Par ailleurs, il a été constaté que la position relative des items classés en fonction des indices de difficulté et des pentes démontre une forte corrélation entre les détenus et ceux purgeant une peine dans la communauté. Ce constat fait en sorte qu'un système de normes commun aux deux groupes pourrait être envisagé. Enfin, l'étude de biais montre qu'un nombre substantiel d'items présente des fonctionnements différentiels entre le groupe de détenus et celui des personnes purgeant une peine dans la communauté. II est proposé de revoir les points de césure afin de diminuer les écarts observés entre les items lorsque les deux groupes à l'étude sont comparés sur une échelle de mesure commune.
|
92 |
Validation transculturelle du Resilience Scale for Adults auprès de la population universitaire québécoiseCôté, Karolane 13 December 2023 (has links)
Au cours des dernières années, le concept de résilience a reçu l'attention de nombreux chercheurs, particulièrement en raison de la pandémie (Kontogiannis, 2021; Vindegaard & Benros, 2020). Plusieurs études ont cherché à dresser le portrait de la situation dans divers pays et à comparer comment les nations font face à cette adversité. La résilience s'avère donc un sujet d'actualité et les préoccupations quant aux aspects méthodologiques associés aux comparaisons culturelles justifiées. Dans ce contexte, ce mémoire a pour objectif principal de contribuer à la validation transculturelle d'un instrument de mesure de la résilience largement reconnu; le Resilience Scale for Adults (RSA; Hjemdal et al., 2001) auprès d'un échantillon de 405 étudiants, québécois et francophone. À titre comparatif, les analyses statistiques réalisées s'inscrivent dans deux modèles de mesure : la théorie classique des tests et la théorie de la réponse à l'item. Les analyses de la structure factorielle de l'instrument montrent que le modèle à six facteurs obtenu au moyen d'équations structurelles exploratoires (ESEM) s'ajuste bien aux données recueillies auprès de l'échantillon québécois. Les coefficients alpha des dimensions varient de très bons (0,84) à excellents (0,95). Ces résultats sont comparables à ceux obtenus avec d'autres groupes culturels par plusieurs chercheurs. L'analyse d'items classique et celle appuyée sur le modèle gradué de Samejima (1969) montrent que les items du RSA sont, en majorité, performants et utiles pour évaluer la résilience chez les Québécois, principalement chez ceux présentant un niveau de résilience de très faible à modéré. Cinq items présentent des indices moins satisfaisants: trois de la dimension Compétence sociale et deux de la dimension Ressources sociales. Somme toute, le RSA présente des qualités métriques satisfaisantes et s'avère un instrument permettant l'évaluation de la résilience en contexte québécois. Des études impliquant des comparaisons directes entre les cultures demeurent nécessaires pour appuyer ces résultats.
|
93 |
Les azasulfurylpeptides : synthèse, analyse conformationnelle et applications biologiquesTurcotte, Stéphane 04 1900 (has links)
Les azasulfurylpeptides sont des mimes peptidiques auxquels le carbone en position alpha et le carbonyle d’un acide aminé sont respectivement remplacés par un atome d’azote et un groupement sulfonyle (SO2). Le but premier de ce projet a été de développer une nouvelle méthode de synthèse de ces motifs, également appelés N-aminosulfamides. À cette fin, l’utilisation de sulfamidates de 4-nitrophénol s’est avérée importante dans la synthèse des azasulfuryltripeptides, permettant le couplage d’hydrazides avec l’aide d’irradiation aux micro-ondes (Chapitre 2). Par la suite, en quantité stoechiométrique d’une base et d’un halogénure d’alkyle, les azasulfurylglycines (AsG) formés peuvent être chimiosélectivement alkylés afin d’y insérer diverses chaînes latérales. Les propriétés conformationnelles des N-aminosulfamides à l’état solide ont été élucidées grâce à des études cristallographiques par rayons X : elles possèdent une structure tétraédrique autour de l’atome de soufre, des traits caractéristiques des azapeptides et des sulfonamides, ainsi que du potentiel à favoriser la formation de tours gamma (Chapitre 3).
Après le développement d’une méthode de synthèse des N-aminosulfamides en solution, une approche combinatoire sur support solide a également été élaborée sur la résine amide de Rink afin de faciliter la génération d’une librairie d’azasulfurylpeptides. Cette étude a été réalisée en employant le growth hormone releasing peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). Ce dernier est un hexapeptide possédant une affinité pour deux récepteurs, le growth hormone secretagogue receptor 1a (GHS-R1a) et le récepteur cluster of differenciation 36 (CD36). Une affinité sélective envers le récepteur CD36 confère des propriétés thérapeutiques dans le traitement de la dégénérescence maculaire liée à l’âge (DMLA). Six analogues d’azasulfurylpeptides de GHRP-6 utilisés comme ligands du CD36 ont été synthétisés sur support solide, mettant en évidence le remplacement du tryptophane à la position 4 de GHRP-6 (Chapitre 4).
Les analogues de GHRP-6 ont été ensuite analysés pour leur capacité à moduler les effets de la fonction et de la cascade de signalisation des ligands spécifiques au Toll-like receptor 2 (TLR2), en collaboration avec le Professeur Huy Ong du département de Pharmacologie à la Faculté de Pharmacie de l’Université de Montréal. Le complexe TLR2-TLR6 est reconnu pour être co-exprimé et modulé par CD36. En se liant au CD36, certains ligands de GHRP-6 ont eu un effet sur la signalisation du TLR2. Par exemple, les azasulfurylpeptides [AsF(4-F)4]- et [AsF(4-MeO)4]-GHRP-6 ont démontré une capacité à empêcher la surproduction du monoxyde d’azote (NO), un sous-produit réactif formé suite à l’induction d’un signal dans les macrophages par des ligands spécifiques liés au TLR2, tel le fibroblast-stimulating lipopeptide 1 (R-FSL-1) et l’acide lipotéichoïque (LTA). En addition, la sécrétion du tumor necrosis factor alpha (TNFa) et du monocyte chemoattractant protein 1 (MCP-1), ainsi que l’activation du nuclear factor kappa-light-chain-enhancer of activated B cells (NF-kB), ont été réduites. Ces résultats démontrent le potentiel de ces azasulfurylpeptides à pouvoir réguler le rôle du TLR2 qui déclenche des réponses inflammatoires et immunitaires innées (Perspectives).
Finalement, le potentiel des azasulfurylpeptides d’inhiber des métallo-bêta-lactamases, tels le New-Delhi Metallo-bêta-lactamase 1 (NDM-1), IMP-1 et le Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), a été étudié en collaboration avec le Professeur James Spencer de l’Université de Bristol (Royaumes-Unis). Certains analogues ont été des inhibiteurs micromolaires du IMP-1 (Perspectives).
Ces nouvelles voies de synthèse des azasulfurylpeptides en solution et sur support solide devraient donc permettre leur utilisation dans des études de relations structure-activité avec différents peptides biologiquement actifs. En plus d'expandre l'application des azasulfurylpeptides comme inhibiteurs d'enzymes, cette thèse a révélé le potentiel de ces N-aminosulfamides à mimer les structures secondaires peptidiques, tels que les tours gamma. À cet égard, l’application des azasulfurylpeptides a été démontrée par la synthèse de ligands du CD36 présentant des effets modulateurs sur le TLR2. Compte tenu de leur synthèse efficace et de leur potentiel en tant qu’inhibiteurs, les azasulfurylpeptides devraient trouver une large utilisation dans les sciences de peptides pour des applications dans la médecine et de la chimie biologique. / The azasulfurylpeptides are peptide mimics in which the alpha carbon and the carbonyl of an amino acid residue are respectively replaced by a nitrogen atom and a sulfonyl group (SO2). The primary goal of this doctorate project was to develop a new effective method for the synthesis of these motifs, also called N-aminosulfamides. Towards this aim, the use of 4-nitrophenyl sulfamidates turned out to be important in the synthesis of azasulfuryltripeptides, allowing hydrazide couplings under micro-wave irradiation (Chapter 2). Side-chain diversity was then added using a stoichiometric amount of base and different alkyl halides to alkylate chemoselectively the azasulfurylglycine (AsG) residue. The conformational properties of the N-aminosulfamides in the solid state were studied using X-Ray crystallography, which showed a tetrahedral geometry about the sulfur atom, features of azapeptides and sulfonamides, as well as potential to favor the formation of gamma turns (Chapter 3).
Following the development of the synthesis of these N-aminosulfamides in solution, a combinatorial approach on solid support was elaborated on Rink amide resin to generate a library of azasulfurylpeptides. The study was performed using the Growth Hormone Releasing Peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). The latter is a hexapeptide that has affinity for two receptors, the Growth Hormone Secretagogue Receptor 1a (GHS-R1a) and the Cluster of Differenciation 36 (CD36) receptor. Selective binding to the CD36 receptor has therapeutic potential in the treatment of age-related macular degeneration (AMD). Six azasulfurylpeptide analogs were synthesized on solid support by replacing tryptophan at the 4th position of GHRP-6 with different N-aminosulfamide residues (Chapter 4).
The GHRP-6 analogs were tested for their ability to mediate the effects of receptor-specific ligands on the function and downstream signaling of the Toll-Like Receptor 2 (TLR2), in collaboration with Professor Huy Ong at the department of Pharmacology in the Faculty of Pharmacy at the Université de Montréal. The TLR2-TLR6 complex is known to be co-expressed and modulated by CD36. On binding to CD36, certain GHRP-6 ligands exhibited effects on the signaling of TLR2. For example, the azasulfurylpeptides [4-F-AsF4]- and [4-MeO-AsF4]-GHRP-6 prevented the overproduction of nitric oxide (NO), a reactive oxygen species formed following the induction of signal in macrophages on binding of TLR2-specific ligands, such as the Fibroblast-Stimulating Lipopeptide 1 (R-FSL-1) and lipoteichoic acid (LTA). Furthermore, the secretion of the Tumor Necrosis Factor Alpha (TNFa) and Monocyte Chemoattractant Protein 1 (MCP-1), as well as the activation of the Nuclear Factor Kappa-light-chain-enhancer of activated B cells (NF-kB), all were reduced. These results offer promise for regulating Toll-like receptor roles in triggering innate immunity and inflammatory responses (Perspectives).
Finally, the potential of the azasulfurylpeptides to inhibit metallo-bêta-lactamases, such as the New-Delhi Metallo-β-lactamase 1 (NDM-1), IMP-1 and the Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), has been studied in collaboration with Professor James Spencer at the University of Bristol (United-Kingdom). Some analogs were micromolar inhibitors of IMP-1 (Perspectives).
These new approaches for the synthesis of azasulfurylpeptides in solution and on solid support should enable their use in studies of structure-activity relationships with different biologically active peptides. In addition to expanding the application of azasulfurylpeptides as enzyme inhibitors, this thesis has revealed the potential of these N-aminosulfamides to mimic the peptide secondary structures, such as gamma turns. Application of azasulfurylpeptides in this respect has been demonstrated by the synthesis of CD36 ligands exhibiting modulatory effects on the TLR2. Considering their effective synthesis and potential as inhibitors, azasulfurylpeptides should find broad use in peptide science for applications in medicine and chemical biology.
|
94 |
Étude de la réponse aiguë à l'exercice intermittent à haute intensité chez le patient coronarienGuiraud, Thibaut 12 1900 (has links)
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques. / High-intensity interval training has been shown to be more effective than moderate intensity continuous training for improving maximal oxygen uptake (VO2max) and metabolic profile in patients with coronary heart disease (CHD). However, no evidence supports the prescription of one specific protocol of high intensity interval exercise (HIIE) in this population. We have compared the acute cardiopulmonary responses to four different sessions of HIIE in order to identify the most optimal one in CHD patients. In random fashion, subjects performed the different HIIE sessions, all with exercise phases at 100% of maximal aerobic power (MAP), but which varied in interval duration (15 s or 60 s) and type of recovery (0% of MAP or 50% of MAP). Each protocol lasted 35 minutes or until exhaustion. When considering perceived exertion, patient comfort and time spent above 80% of VO2max, we found that repeated bouts of 15s at 100% of MAP interspersed by 15s phases of passive recovery was the optimal HIIE session for these coronary patients. Then, we compared the physiological responses to the optimized HIIE versus a moderate intensity continuous training (MICE) protocol of similar energy expenditure in coronary patients. When considering physiological responses, safety (no elevation of Troponin T) and perceived exertion, the HIIE protocol appeared to be well tolerated and more efficient in this group of stable coronary patients. Finally, a single bout of HIIE did not induce deleterious effects on the endothelium, as demonstrated by endothelial microparticules analyses. We conclude that high-intensity interval exercise is a promising mode of training for patients with stable CHD that should also be further investigated in cardiac patients, particularly with exercise-induced ischemia.
|
95 |
Factor models, VARMA processes and parameter instability with applications in macroeconomicsStevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90.
Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques?
Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité.
Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada.
Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci.
Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs.
L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement.
Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis.
Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models?
This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability.
The first article analyzes the monetary transmission mechanism in Canada using a
factor-augmented vector autoregression (FAVAR) model. For small open economies
like Canada, uncovering the transmission mechanism of monetary policy using VARs
has proven to be an especially challenging task. Such studies on Canadian data have
often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy.
As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series.
In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters.
In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation.
The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
|
96 |
TAARAC : test d'anglais adaptatif par raisonnement à base de casLakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
97 |
Étude du modèle théorique du rapport des déterminants de Rorschach par leur comparaison avec une histoire faite avec les réponses / Study of the theoretical model of the relationship among Rorschach determinants through their comparison with a story made with responsesSilberstein, Fernando 14 June 2011 (has links)
L’objectif de ce travail est d’étudier l’ensemble des déterminants comme la manifestation d’un fonctionnement psychologique spécifique de l’interprétation à l’épreuve. La séquence consécutive des déterminants cotés est comparée avec la séquence des déterminants issue des réponses reprises pour faire une histoire avec les réponses données. De cette comparaison quatre aménagements principaux se présentent : -la répétition égale ou presque de la séquence malgré le fait que la deuxième suite est issue d’un ordre différent des réponses et des planches que celui de la passation initiale ; -une séquence proche ; -un rassemblement par groupes de pareils déterminants ; -des séries comparées différentes. Chacun des types est en rapport avec quelques traits psychologiques distinctifs, notamment la répétition égale et le rassemblement. Si dans certains cas la suite se répète malgré le changement de l’ordre initial des planches, cela veut dire que la séquence consécutive représente un fonctionnement spécifique caractéristique de l’interprétation. D’autres rapports des déterminants avec les narrations sont établis, notamment celui des proportions relatives de l’ensemble des déterminants avec la thématique et les liens parmi les épisodes. Quelques différences interprétatives et de réactivité à la couleur sont constatées entre les sexes. À partir des comparaisons faites il est proposé que les déterminants représentent un niveau sémantique de base d’influence cognitive et en rapport avec les processus émotionnels composé d’objets, liaisons, construction des justifications et transformations, et qualités acquises dans la construction d’un sens. / The purpose of this paper is to study the determinants as the manifestation of a psychological functioning specific to the interpretation of the test. The consecutive sequence of determinants of the initial classification is compared with the sequence of determinants resulting from responses used to make a story. Four principal organizations of determinants appear when this comparison is made: the repetition of the same or nearly the same sequence despite the fact that the second series results from a different order of the plates and responses; a sequence similar to the initial one; block grouping of equal determinants; different series of determinants.Each of these organizations is related to some distinctive psychopathological traits, in particular in the cases of equal repetition and block grouping. The fact that the initial classification may be repeated despite the change in the order of the responses and plates makes it clear that the consecutive sequence of determinants represents a specific psychological process proper to the interpretation, relatively independent from the stimulus. Other relationships of determinants with the narratives are stablished, including the different proportions of the totality of determinants to the subject of the stories, and the linkings among episodes.As a result of the comparisons made, the author proposes that the sequence of determinants represents a basic semantic level linked to the cognitive organization relative to emotional processes. This interpretative level is related to the constructions of objects, links, justifications, transformations, and qualities acquired in the course of the building up of meaning.
|
98 |
Approximation of OLAP queries on data warehouses / Approximation aux requêtes OLAP sur les entrepôts de donnéesCao, Phuong Thao 20 June 2013 (has links)
Nous étudions les réponses proches à des requêtes OLAP sur les entrepôts de données. Nous considérons les réponses relatives aux requêtes OLAP sur un schéma, comme les distributions avec la distance L1 et rapprocher les réponses sans stocker totalement l'entrepôt de données. Nous présentons d'abord trois méthodes spécifiques: l'échantillonnage uniforme, l'échantillonnage basé sur la mesure et le modèle statistique. Nous introduisons également une distance d'édition entre les entrepôts de données avec des opérations d'édition adaptées aux entrepôts de données. Puis, dans l'échange de données OLAP, nous étudions comment échantillonner chaque source et combiner les échantillons pour rapprocher toutes requêtes OLAP. Nous examinons ensuite un contexte streaming, où un entrepôt de données est construit par les flux de différentes sources. Nous montrons une borne inférieure de la taille de la mémoire nécessaire aux requêtes approximatives. Dans ce cas, nous avons les réponses pour les requêtes OLAP avec une mémoire finie. Nous décrivons également une méthode pour découvrir les dépendances statistique, une nouvelle notion que nous introduisons. Nous recherchons ces dépendances en basant sur l'arbre de décision. Nous appliquons la méthode à deux entrepôts de données. Le premier simule les données de capteurs, qui fournissent des paramètres météorologiques au fil du temps et de l'emplacement à partir de différentes sources. Le deuxième est la collecte de RSS à partir des sites web sur Internet. / We study the approximate answers to OLAP queries on data warehouses. We consider the relative answers to OLAP queries on a schema, as distributions with the L1 distance and approximate the answers without storing the entire data warehouse. We first introduce three specific methods: the uniform sampling, the measure-based sampling and the statistical model. We introduce also an edit distance between data warehouses with edit operations adapted for data warehouses. Then, in the OLAP data exchange, we study how to sample each source and combine the samples to approximate any OLAP query. We next consider a streaming context, where a data warehouse is built by streams of different sources. We show a lower bound on the size of the memory necessary to approximate queries. In this case, we approximate OLAP queries with a finite memory. We describe also a method to discover the statistical dependencies, a new notion we introduce. We are looking for them based on the decision tree. We apply the method to two data warehouses. The first one simulates the data of sensors, which provide weather parameters over time and location from different sources. The second one is the collection of RSS from the web sites on Internet.
|
99 |
La vitrine du magasin : son influence et son rôle dans l'expérience de magasinage / Windows displays : influence and role in shopping experienceLecointre-Erickson, Danielle 10 September 2018 (has links)
Le rôle de l’attraction des éléments extérieurs du point de vente physique demeure une problématique complexe pour les commerçants. De plus, l’expérience en point de vente physique est en pleine évolution, due en partie à une présence accrue des nouvelles technologies. Cette thèse répond à la problématique suivante : comment la vitrine du point de vente influence-t-elle l’expérience de magasinage anticipée ? Nous nous focalisons sur l’influence de la technologie interactive et du niveau de représentation (construal level) en vitrine sur la perception de l’atmosphère, les réponses attentionnelles, les réponses affectives, la valeur de magasinage anticipée et les intentions comportementales. Nous testons les effets modérateurs de la motivation de magasinage et de la tendance exploratoire du consommateur. Nous adoptons une approche hypothético-déductive et nous procédons à deux expérimentations afin de répondre à notre problématique.Les résultats de la première expérimentation in situ (n=251) révèlent un effet stimulant et hédonique de l’utilisation de la technologie interactive en vitrine. La deuxième expérimentation, en laboratoire (n=144), a mobilisé une méthode d’eye-tracking pour collecter les données sur l’influence du niveau de représentation des éléments en vitrine. Les résultats montrent une influence significative du niveau de représentation sur l’atmosphère globale perçue et sur les intentions comportementales. Les résultats des cartes de chaleur montrent que la motivation de magasinage utilitaire renforce l’attention visuelle sur les produits en vitrine. Aucun effet modérateur de la tendance exploratoire n’a été détecté dans les deux expérimentations. / One of the relevant issues for retailers in this dissertation is the role of marketing mix elements outside the physical store in attracting customers. Another relevant issue is the evolution of the physical retailing experience which is partly due to the ever increasing presence of new retail technology. The aim of this dissertation is to answer the following question: how do store windows influence anticipated shopping experience? We focus on the influence of interactive technology and construal level in store windows on perceived global atmosphere, visual attention, affective response, anticipated shopping value and patronage intentions. Shopping motivation and exploratory buying behavior tendency were tested for moderating effects. Two experiments were conducted for this doctoral research. The results from the in situ field experiment (n=251) reveal a hedonic and arousing effect from usage of the interactive window display. The second experiment on store window construal level (n=144) was conducted using eyeLtracking equipment in a controlled laboratory setting. The results show a significant influence of store window construal level on perceived global atmosphere and on patronage intentions. The results from the heat map analysis show that utilitarian shopping motivation reinforces visual attention to products in the window display. No moderating effect was found in either study for exploratory buying behavior tendency.
|
100 |
La vulnérabilité face aux risques environnementaux à Kigali (Rwanda) : enjeux et facteursTsinda, Aimé 12 1900 (has links)
No description available.
|
Page generated in 0.0554 seconds