• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 4
  • 3
  • 1
  • Tagged with
  • 34
  • 34
  • 13
  • 12
  • 10
  • 10
  • 9
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Le conservatisme moral au Canada : réseau d'acteurs et analyse identitaire

Breton, Charles January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
22

Analyse et synthèse de tolérance pour la conception et le dimensionnement des systèmes mécatroniques

El Feki, Mariem 05 July 2011 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la conception des systèmes mécatroniques et porte, plus particulièrement, sur le dimensionnement de chaînes d'actionnement et les méthodes à mettre en œuvre pour satisfaire le cahier des charges et réduire au mieux le temps de développement. Afin de suivre l'évolution du marché et faire face à la concurrence croissante, les concepteurs ont eu recours au cycle de conception en Vet au prototypage virtuel. Pour réduire davantage la durée du processus de conception, la formulation du problème de conception sous la forme d'un problème inverse est une solution intéressante. Dans ce contexte, le laboratoire Ampère propose une méthodologie de dimensionnement par modèles bond graph inverses. Ainsi, l'objectif de cette thèse est de contribuer au développement de cette méthodologie d'une part dans sa phase de vérification de l'adéquation des spécifications du cahier des charges à la structure retenue pour le modèle de conception et, d'autre part, par la prise en compte des tolérances dans le problème de conception. Pour la phase de vérification de l'adéquation spécifications/structure, le mémoire présente tout d'abord, l'analyse structurelle du cahier des charges qui permet de vérifier, avant toute simulation et à partir du modèle bond graph, si le problème de conception par modèle inverse est bien posé. Différents niveaux d'analyse sont supposés pour renforcer la démarche chronologique du travail de conception ou de reconception proposée par la méthodologie de dimensionnement. Ensuite, ces niveaux d'analyse sont mis à profit pour définir une procédure de vérification de l'adéquation des spécifications, définies sous forme de comportements type, au modèle de conception. En cas d'inadéquation, des recommandations pour la remise en question des spécifications ou de la structure du modèle de conception sont proposées et ce, selon le niveau d'analyse considéré. Au niveau de l'analyse numérique (le niveau d'analyse le plus bas), cette procédure peut être utilisée pour la synthèse paramétrique ou encore pour la synthèse de tolérance en cas de prise en compte des incertitudes dans le problème de conception. Concernant cet aspect, le mémoire présente également une contribution à la représentation des incertitudes paramétriques dans le formalisme bond graph, formalisme de base de la méthodologie de dimensionnement. Enfin, l'approche probabiliste est utilisée pour la modélisation des incertitudes dans la démarche de dimensionnement des systèmes dynamiques par inversion des modèles bond graph : les deux cas d'inversion, entrées/sorties d'une part (pour la remontée de spécifications), et paramètres/sorties d'autre part (pour la synthèse de tolérances paramétriques), sont abordés. Les règles d'exploitation d'un modèle bond graph probabiliste permettant la propagation des fonctions de densité de probabilité et des grandeurs caractéristiques(espérance et variance) tout le long de la structure énergétique du système sont proposées et illustrées par un exemple.
23

Contribution à l'étude du diagnostic et de la commande tolérante aux fautes par l'approche structurelle. Application aux procédés biologiques

Belkherchi, Nassim 05 April 2011 (has links) (PDF)
Le travail réalisé dans cette thèse concerne l'étude du diagnostic de fautes et la reconfiguration en utilisant une approche issue de l'analyse structurelle et leurs applications sur un modèle de traitement des eaux usées. Dans une première partie, on fait un bref tour d'horizon sur la recherche dédiée au diagnostic et à la commande tolérante aux fautes, puis nous présentons les outils nécessaires de l'analyse structurelle. Ces derniers ont été appliqués sur l'approche choisie (l'approche structurelle) pour la détection et l'isolation de défauts, ainsi que pour la reconfiguration. Pour le diagnostic structurel, l'étape principale consiste à chercher les ensembles MSO qui servent à la génération des résidus. Une étude comparative de quelques algorithmes de recherche de ces ensembles a été faite pour choisir la méthode la plus efficace, la méthode choisie est celle de Krysander et al. La recherche des ensembles MSO est faite dans le sous système sur-déterminé. Pour l'amélioration de l'isolabilité structurelle, deux méthodes sont citées : la première consiste à considérer certaines fautes comme variables internes du système et la deuxième concerne l'ajout de capteurs. Pour la reconfiguration structurelle, on s'est basé sur les propriétés d'observabilité et de commandabilité structurelles. Notre but est de trouver la structure du système qui nous permet de garder les propriétés structurelles inchangées. Lors de l'application, nous étudions le cas où les fautes sont commises sur les actionneurs à savoir le débit de boues recyclées (Qr) et le débit de boues en excès (Qw), et sur les paramètres du système qui sont le taux maximum de croissance de la biomasse (µH,max) et la constante de Michaelis Menten (Ks).
24

Développement d'un système robotique pour la radiologie interventionnelle sous IRM

Abdelaziz, Salih 29 November 2012 (has links) (PDF)
La réalisation de gestes percutanés dans l'IRM ouvre la voie à des pratiques médicales prometteuses. En revanche, l'utilisation de l'IRM reste à ce jour limitée, et ce malgré l'intérêt en terme de qualité d'image. Cela est dû principalement à l'étroitesse du tunnel et à la complexité des gestes réalisés. Pour rendre accessibles de telles pratiques, une assistance robotique semble très pertinente. Pour le concepteur, la réalisation d'un système robotisé compatible IRM n'est pas une tâche facile, étant donné l'espace disponible et la présence d'un champ magnétique intense. C'est dans ce contexte que nous avons développé un assistant robotique, MRGuide, dédié aux traitements du cancer de la prostate dans l'IRM. Il s'agit d'un manipulateur à câbles avec un actionnement déporté. Dans ce travail, de nombreuses contributions menant à la réalisation de ce prototypes ont présentées. Parmi celles‐ci, une instrumentation originale pour estimer la tension des câbles est proposée. Cette instrumentation est basée sur l'utilisation d'une structure en treillis, de mécanismes compliants et de capteurs de déplacement à technologie optique pour assurer la compatibilité avec le scanner. Pour optimiser la géométrie du robot et faciliter son intégration dans l'IRM, une démarche de conception des robots à câbles instrumentés est développée. Cette démarche est basée sur une approche par intervalles. D'autres contributions relatives à la caractérisation de l'espace de travail des robots à câbles instrumentés, à l'étalonnage des capteurs de tension et au développement d'une stratégie de commande adaptée au dispositif sont décrites.
25

Analyse Structurelle pour le Diagnostic des Systèmes Distribués / Structural analysis for the diagnosis of distributed systems

Perez zuniga, Carlos gustavo 21 August 2017 (has links)
Les récents développements des systèmes technologiques ont mené à une complexification des comportements des systèmes actuels. Une solution pour gérer cette complexité croissante consiste à les considérer comme un ensemble de sous-systèmes hétérogènes et à développer des techniques distribuées pour les contrôler et les gérer. Cette solution soulève plusieurs problèmes. Tout d’abord, l’augmentation de la taille et du nombre de composants entraîne immanquablement l’augmentation du nombre de fautes qui peuvent conduire le système dans un état de défaillance critique. De fait, parmi les fonctions opérationnelles, les tâches de détection et d’isolation des fautes (Fault Detection and Isolation ou FDI), de maintenance et de réparation sont devenues prédominantes et elles influent considérablement sur le coût total des produits finaux.Cette thèse porte sur la détection et l’isolation de fautes. Parmi les différentes méthodes pour générer des tests de diagnostic utilisant la redondance analytique, cette thèse adopte l’approche par espace de parité qui utilise les relations de redondance analytique (RRA). Étant donné un modèle du système sous la forme d’un ensemble d’équations différentielles, les RRA sont des relations obtenues à partir du modèle en éliminant les variables non mesurées. Ceci peut être effectué dans un cadre analytique en utilisant la théorie de l’élimination. Une autre solution consiste à utiliser l’analyse structurelle. L’analyse structurelle est basée sur une abstraction du modèle qui ne conserve que les liens entre variables et équations. Malgré son apparente simplicité, l’analyse structurelle fournit un ensemble d’outils puissants, s’appuyant sur la théorie des graphes, pour analyser et inférer des informations sur le système. Par ailleurs, elle a l’avantage de s’appliquer indifféremment sur les systèmes linéaires ou non linéaires.L’objectif de cette thèse est de développer des techniques efficaces basées sur l’analyse structurelle pour le diagnostic des systèmes continus distribué. Dans ce cadre, le système se décompose en un ensemble de sous-systèmes en fonction de contraintes fonctionnelles, géographiques ou de confidentialité. La thèse se divise principalement en deux parties :• la première partie cherche à mettre à lumière, à partir des modèles structurels obtenus au niveau des sous-systèmes, les redondances qui généreront des tests de diagnostic pertinents au niveau du système global,• la deuxième partie vise à formuler et résoudre le problème d’optimisation lié au choix d’un sous-ensemble de tests de diagnostic au niveau des sous-systèmes permettant une diagnosticabilité maximale pour le système global.La première partie utilise le concept d’ensemble minimal structurellement surdéterminé guidé par les fautes (Fault-Driven Minimal Structurally Overdetermined Set ou FMSO set). Ce concept est introduit dans la thèse. Il s’agit d’un sousensemble d’équations du modèle avec une redondance minimale à partir de laquelle une RRA sensible à un ensemble de fautes peut être obtenu. Deux solutions pour générer des ensembles FMSO pour le système global sont présentées, d’une part dans un cadre décentralisé avec des superviseurs imbriqués suivant une hiérarchie; d’autre part dans un cadre totalement distribué. Ces solutions sont basées sur les propriétés des ensembles FMSO au niveau des sous-systèmes qui sont présentées dans la thèse. La deuxième partie pose un problème d’optimisation dans le cadre d’une recherche heuristique et propose trois solutions basées sur un algorithme A* itératif combiné avec une fonction capable d’évaluer si un ensemble FMSO au niveau global peut être obtenu à partir des ensembles FMSO locaux sélectionnés. Les concepts introduits dans la thèse et les résultats sont appliqués à deux cas d’étude industriels. Le premier est une usine de désalinisation. Le second est un système de détermination et de contrôle d’attitude pour un satellite en orbite basse. / The recent development of technological systems implies a high complexity of behaviors for today’s systems. An answer to the increased system’s complexity is to look at them as a multitude of heterogeneous subsystems and develop distributed techniques to control and manage them. This raises a number of problems. Firstly, as the size and number of components increase, so does the number of fault occurrences that may drive the system to undergo critical failures. Fault detection and isolation (FDI), maintenance and repair are an increasing part of the operational everyday’s tasks and they impact drastically the total cost of final products.This thesis focuses on fault detection and isolation. Among the different methods to generate diagnosis tests by taking advantage of analytical redundancy, this thesis adopts the so-called parity space approach based on analytical redundancy relations (ARRs). Given a model of the system in the form of a set of differential equations, ARRs are relations that are obtained from the model by eliminating non measured variables. This can be performed in an analytical framework using elimination theory but another way of doing this is to use structural analysis. Structural analysis is based on a structural abstraction of the model that only retains a representation of which variables are involved in which equations. Despite the rusticity of the abstract model, structural analysis provides a set of powerful tools, relying on graph theory, to analyze and infer information about the system. Interestingly, it applies indifferently to linear or nonlinear systems. The goal of this thesis is to develop effective techniques based on structural analysis for diagnosis of distributed continuous systems. In this framework, the system is decomposed into a set of subsystems according to functional, geographical or privacy constraints. The thesis is organized in two parts:• highlighting the redundancies that are built into the global structural model and that can be used to generate diagnosis tests starting from the redundancies existing in the subsystem’s models,• formulating and solving the optimization problem linked to the choice of a subset of diagnosis tests at the subsystems level that can lead to a set of diagnosis tests achieving maximum diagnosability for the global system.The first part takes benefit of the concept of Fault-Driven Minimal Structurally Overdetermined Set (FMSO set) that is introduced in the thesis. An FMSO set determines a subset of equations of the model with minimal redundancy from which an ARR sensitive to a set of faults can be obtained. Two solutions for generating FMSOs for the global system are presented, in a decentralized framework with supervisors at each level of a hierarchy and in a totally distributed framework.These are based on the properties of the FMSO sets for the subsystems in relation to those of the global system derived in the thesis.
26

Développement d'un système robotique pour la radiologie interventionnelle sous IRM / Development of a robotic assistant for MRI-guided interventions

Abdelaziz, Salih 29 November 2012 (has links)
La réalisation de gestes percutanés dans l’IRM ouvre la voie à des pratiques médicales prometteuses. En revanche, l’utilisation de l’IRM reste à ce jour limitée, et ce malgré l’intérêt en terme de qualité d’image. Cela est dû principalement à l’étroitesse du tunnel et à la complexité des gestes réalisés. Pour rendre accessibles de telles pratiques, une assistance robotique semble très pertinente. Pour le concepteur, la réalisation d’un système robotisé compatible IRM n’est pas une tâche facile, étant donné l’espace disponible et la présence d’un champ magnétique intense. C'est dans ce contexte que nous avons développé un assistant robotique, MRGuide, dédié aux traitements du cancer de la prostate dans l’IRM. Il s'agit d'un manipulateur à câbles avec un actionnement déporté. Dans ce travail, de nombreuses contributions menant à la réalisation de ce prototypes ont présentées. Parmi celles‐ci, une instrumentation originale pour estimer la tension des câbles est proposée. Cette instrumentation est basée sur l’utilisation d’une structure en treillis, de mécanismes compliants et de capteurs de déplacement à technologie optique pour assurer la compatibilité avec le scanner. Pour optimiser la géométrie du robot et faciliter son intégration dans l'IRM, une démarche de conception des robots à câbles instrumentés est développée. Cette démarche est basée sur une approche par intervalles. D'autres contributions relatives à la caractérisation de l'espace de travail des robots à câbles instrumentés, à l'étalonnage des capteurs de tension et au développement d'une stratégie de commande adaptée au dispositif sont décrites. / Performing medical gestures under MRI is a promising medical approach. Todate, using MRI for interventions is still limited, despite the quality of the provided images. This limitation is mainly due to the confined physical space inside the tunnel and the complexity of the gestures. To make accessible such practices, a robotic assistance seems very relevant. However, it’s a challenge for the designer, given the limited space and the strong magnetic field inside the bore. In this context, we have developed an MR-‐compatible robotic assistant, named MRGuide, for prostate interventions. The robot is based on an original cable-­‐ driven manipulator with a remote actuation. In this work, many contributions leading to the development of MRGuide are presented. One of these contributions lies in the use of an original instrumented structure to evaluate the cables tensions. This instrumentation is based on the use of a truss structure, compliant mechanisms and optical displacement sensors for MRcompatibility. In order to optimize the size of the robot and facilitate its integration in the scanner, a new design methodology using interval analysis has been developed. Other contributions related to the workspace characterization of instrumented cable-­‐driven robots, the tension sensor calibration and the development of a new control strategy adapted to the device are described.
27

Factor models, VARMA processes and parameter instability with applications in macroeconomics

Stevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis. Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models? This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability. The first article analyzes the monetary transmission mechanism in Canada using a factor-augmented vector autoregression (FAVAR) model. For small open economies like Canada, uncovering the transmission mechanism of monetary policy using VARs has proven to be an especially challenging task. Such studies on Canadian data have often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy. As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series. In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters. In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation. The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
28

Contribution à l'analyse structurelle des systèmes singuliers pour la conception mécatronique / Structural analysis of descriptor systems for modeling and design of mechatronic systems

Lagnier, Julien 02 June 2017 (has links)
Cette thèse s'inscrit dans le cadre de la conception des systèmes mécatroniques. Les travaux se positionnent dans les premières phases du cycle de conception, là où les principaux efforts méthodologiques sont à mener pour améliorer la qualité et la fonctionnalité des produits, et reposent sur le prototypage virtuel (modélisation et simulation). Une approche méthodologique envisageable est de reformuler le problème de conception sous une forme inverse, pour directement utiliser les spécifications du cahier des charges, usuellement exprimées sur les sorties, pour calculer les inconnues du problème. Dans ce contexte, le laboratoire Ampère développe une méthodologie de conception et dimensionnement, basée sur l'inversion de modèle, utilisant le formalisme bond graph, pour proposer une démarche reposant sur des critères dynamiques et énergétiques, et dont la principale originalité est sa phase d'analyse structurelle, permettant une hiérarchisation d’analyse suivant différents niveaux de la structure physique du modèle (topologie, phénoménologie, paramétrage). L'objectif est de contribuer au développement de cette méthodologie, en l’étendant aux modèles appartenant à la classe des systèmes singuliers, porté par la velléité de décliner la démarche à la conception fonctionnelle du châssis automobile et de ses sous-systèmes, comportant un certain nombre d'abstractions de modélisation et d'idéalisations. Cette déclinaison est proposée, d’une part, au niveau de la structure du modèle et, d’autre part, à un niveau considérant sa phénoménologie et ses lois de comportement. Elle requiert la mise en place préalable d'un référentiel algébrique, essentiellement issu de travaux sur la commande des systèmes, pour constituer une base de validation des extensions graphiques (digraphe et bond graph) proposées. En plus de la généralisation qu'ils constituent à la classe des modèles singuliers, les présents travaux proposent une uniformisation des précédentes approches de la méthodologie, originellement appliquées respectivement aux modèles directs et aux modèles inverses, de sorte qu'il n'est à présent plus nécessaire de les différencier. / The context of this PhD thesis is the modeling and design of mechatronic systems. The study is positioned in the early design stage of the conception cycle (V-Cycle), where the main efforts have to be produced in terms of methodology, to enhance the quality and the functionality of the products, and based on virtual prototyping (modeling and simulation). One of the possible methodology is to reformulate the design problem as an inverse problem, in order to directly use the design specification of the product, usually given in terms of the system outputs, and then solve the design problem. In this context, the Ampere laboratory of INSA Lyon has developed a conception and design methodology, based on inverse approach and using the bond graph formalism, to propose a step-by-step method based on dynamic and energetic criteria, with a structural analysis phase that allows hierarchical analysis steps, depending on the structural physical layout of the model (topological, phenomenological, parameter set). The aim of the present works is to contribute to the development of this methodology, by enhancing it to the class of descriptor systems. This choice is led by the aim to apply the methodology in the context of chassis design and vehicle dynamics, where, among other, multi-body models represented as a differential-algebraic equation (DAE) system could occur. The contributions are proposed at the level of the topology of the model, as well as at the level of the phenomenological / behavioral aspects. A preliminary step is to enhance the existing algebraic framework to support graphical extension (in term of digraph and bond graph). The overall methodological extensions allow, firstly, a generalization of the approach to the class of descriptor systems, and, secondly, to reach a standardization of the procedures, previously dedicated to direct or inverse models, so as no mandatory differences between those models have to be done anymore.
29

Factor models, VARMA processes and parameter instability with applications in macroeconomics

Stevanovic, Dalibor 05 1900 (has links)
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients. / As information technology improves, the availability of economic and finance time series grows in terms of both time and cross-section sizes. However, a large amount of information can lead to the curse of dimensionality problem when standard time series tools are used. Since most of these series are highly correlated, at least within some categories, their co-variability pattern and informational content can be approximated by a smaller number of (constructed) variables. A popular way to address this issue is the factor analysis. This framework has received a lot of attention since late 90's and is known today as the large dimensional approximate factor analysis. Given the availability of data and computational improvements, a number of empirical and theoretical questions arises. What are the effects and transmission of structural shocks in a data-rich environment? Does the information from a large number of economic indicators help in properly identifying the monetary policy shocks with respect to a number of empirical puzzles found using traditional small-scale models? Motivated by the recent financial turmoil, can we identify the financial market shocks and measure their effect on real economy? Can we improve the existing method and incorporate another reduction dimension approach such as the VARMA modeling? Does it help in forecasting macroeconomic aggregates and impulse response analysis? Finally, can we apply the same factor analysis reasoning to the time varying parameters? Is there only a small number of common sources of time instability in the coefficients of empirical macroeconomic models? This thesis concentrates on the structural factor analysis and VARMA modeling and answers these questions through five articles. The first two articles study the effects of monetary policy and credit shocks in a data-rich environment. The third article proposes a new framework that combines the factor analysis and VARMA modeling, while the fourth article applies this method to measure the effects of credit shocks in Canada. The contribution of the final chapter is to impose the factor structure on the time varying parameters in popular macroeconomic models, and show that there are few sources of this time instability. The first article analyzes the monetary transmission mechanism in Canada using a factor-augmented vector autoregression (FAVAR) model. For small open economies like Canada, uncovering the transmission mechanism of monetary policy using VARs has proven to be an especially challenging task. Such studies on Canadian data have often documented the presence of anomalies such as a price, exchange rate, delayed overshooting and uncovered interest rate parity puzzles. We estimate a FAVAR model using large sets of monthly and quarterly macroeconomic time series. We find that the information summarized by the factors is important to properly identify the monetary transmission mechanism and contributes to mitigate the puzzles mentioned above, suggesting that more information does help. Finally, the FAVAR framework allows us to check impulse responses for all series in the informational data set, and thus provides the most comprehensive picture to date of the effect of Canadian monetary policy. As the recent financial crisis and the ensuing global economic have illustrated, the financial sector plays an important role in generating and propagating shocks to the real economy. Financial variables thus contain information that can predict future economic conditions. In this paper we examine the dynamic effects and the propagation of credit shocks using a large data set of U.S. economic and financial indicators in a structural factor model. Identified credit shocks, interpreted as unexpected deteriorations of the credit market conditions, immediately increase credit spreads, decrease rates on Treasury securities and cause large and persistent downturns in the activity of many economic sectors. Such shocks are found to have important effects on real activity measures, aggregate prices, leading indicators and credit spreads. In contrast to other recent papers, our structural shock identification procedure does not require any timing restrictions between the financial and macroeconomic factors, and yields an interpretation of the estimated factors without relying on a constructed measure of credit market conditions from a large set of individual bond prices and financial series. In third article, we study the relationship between VARMA and factor representations of a vector stochastic process, and propose a new class of factor-augmented VARMA (FAVARMA) models. We start by observing that in general multivariate series and associated factors do not both follow a finite order VAR process. Indeed, we show that when the factors are obtained as linear combinations of observable series, their dynamic process is generally a VARMA and not a finite-order VAR as usually assumed in the literature. Second, we show that even if the factors follow a finite-order VAR process, this implies a VARMA representation for the observable series. As result, we propose the FAVARMA framework that combines two parsimonious methods to represent the dynamic interactions between a large number of time series: factor analysis and VARMA modeling. We apply our approach in two pseudo-out-of-sample forecasting exercises using large U.S. and Canadian monthly panels taken from Boivin, Giannoni and Stevanovic (2010, 2009) respectively. The results show that VARMA factors help in predicting several key macroeconomic aggregates relative to standard factor forecasting models. Finally, we estimate the effect of monetary policy using the data and the identification scheme as in Bernanke, Boivin and Eliasz (2005). We find that impulse responses from a parsimonious 6-factor FAVARMA(2,1) model give an accurate and comprehensive picture of the effect and the transmission of monetary policy in U.S.. To get similar responses from a standard FAVAR model, Akaike information criterion estimates the lag order of 14. Hence, only 84 coefficients governing the factors dynamics need to be estimated in the FAVARMA framework, compared to FAVAR model with 510 VAR parameters. In fourth article we are interested in identifying and measuring the effects of credit shocks in Canada in a data-rich environment. In order to incorporate information from a large number of economic and financial indicators, we use the structural factor-augmented VARMA model. In the theoretical framework of the financial accelerator, we approximate the external finance premium by credit spreads. On one hand, we find that an unanticipated increase in US external finance premium generates a significant and persistent economic slowdown in Canada; the Canadian external finance premium rises immediately while interest rates and credit measures decline. From the variance decomposition analysis, we observe that the credit shock has an important effect on several real activity measures, price indicators, leading indicators, and credit spreads. On the other hand, an unexpected increase in Canadian external finance premium shows no significant effect in Canada. Indeed, our results suggest that the effects of credit shocks in Canada are essentially caused by the unexpected changes in foreign credit market conditions. Finally, given the identification procedure, we find that our structural factors do have an economic interpretation. The behavior of economic agents and environment may vary over time (monetary policy strategy shifts, stochastic volatility) implying parameters' instability in reduced-form models. Standard time varying parameter (TVP) models usually assume independent stochastic processes for all TVPs. In the final article, I show that the number of underlying sources of parameters' time variation is likely to be small, and provide empirical evidence on factor structure among TVPs of popular macroeconomic models. To test for the presence of, and estimate low dimension sources of time variation in parameters, I apply the factor time varying parameter (Factor-TVP) model, proposed by Stevanovic (2010), to a standard monetary TVP-VAR model. I find that one factor explains most of the variability in VAR coefficients, while the stochastic volatility parameters vary in the idiosyncratic way. The common factor is highly and positively correlated to the unemployment rate. To incorporate the recent financial crisis, the same exercise is conducted with data updated to 2010Q3. The VAR parameters present an important change after 2007, and the procedure suggests two factors. When applied to a large-dimensional structural factor model, I find that four dynamic factors govern the time instability in almost 700 coefficients.
30

La «koinônia» des Actes des apôtres : analyse structurelle du verset 2,42 et de son contexte d’insertion

Roy, Jean-Marie 04 1900 (has links)
Jésus de Nazareth accordait beaucoup d’importance à la commensalité, au point de faire du repas en commun le contexte particulier du double geste sur le pain et le vin accompli à la dernière Cène. Après avoir été réitéré dans son contexte d’origine par plusieurs générations de chrétiens, le rappel de la Cène s’est ensuite complètement dissocié du contexte d’un repas. Le terme koinwnia utilisé au verset 2,42 du livre des Actes des apôtres désigne-t-il ce repas communautaire autour duquel se déroulaient les rassemblements chrétiens? Grâce à une analyse structurelle réalisée en entonnoir sur les chapitres 2 à 5 du livre des Actes, le présent mémoire met en relief l’importance des repas communautaires dans la vie de la communauté primitive, tout en montrant que le terme koinwnia a un sens plus étendu que le seul repas en commun, mais tout aussi concret et actif que les trois autres éléments énumérés au verset 2,42. / Jesus of Nazareth used to place much importance on commensality, so much that he wished the common meal to be the particular environment for both actions on bread and wine Jesus did during the Last Supper. For several generations, the memorial of Jesus Last Supper kept on being celebrated in its original context by Christians. But it was later separated from the communal meal. Does the word koinwnia in Acts 2:42 denote those communal meals during which Christian gatherings were held? The importance of common meals in the early community will be highlighted here through a funnel-type structural analysis of Acts 2-5. But it will be shown also that the meaning of koinwnia is more extended than the common meal alone, and just as concrete and active as the three other elements listed in verse 2:42.

Page generated in 0.0566 seconds