• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 191
  • 38
  • 4
  • 1
  • Tagged with
  • 637
  • 216
  • 137
  • 108
  • 75
  • 65
  • 65
  • 58
  • 52
  • 50
  • 47
  • 43
  • 42
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modélisation et gestion sur les marchés obligatoires souverains / Modelling and management within sovereign bonds markets

Moungala, Wilfried Paterne 29 April 2013 (has links)
La crise financière de ces dernières années a relancé le débat sur le caractère dit « sans risque de défaut » des obligations souveraines. Face aux enjeux économiques et financiers, les établissements de crédit et les Institutions Financières ont du revoir les méthodes d’évaluation des obligations. Cette thèse a pour objectif la modélisation et la Gestion des prix obligataires et s’articule autour de quatre points. Dans le premier point, nous avons présenté les approches théoriques portant sur les modèles traditionnels des taux d’intérêt. Dans le second point, nous avons conçu un modèle test nommé M-M en discrétisant les modèles à temps continu du taux d’intérêt court et en recourant aux modèles de la famille GARCH. Ce modèle est construit en incorporant les effets niveau des taux d’intérêt à court terme et GARCH (1,1). Les résultats de l’estimation du modèle M-M suggère la nécessité de tenir compte des deux effets pour la modélisation des rendements des bons du Trésor américain. Le troisième point consiste à extraire les facteurs que l’on peut interpréter comme le niveau, la pente et la courbure. Ces facteurs sont extraits à partir de deux modèles qui sont des extensions dynamiques de la fonctionnelle de Nelson et Siegel. Les courbes des taux utilisés sont celles des Etats-Unis, de la France et de l’Afrique du Sud. La présence de l’Afrique du Sud dans cette étude est due à notre envie de traiter la structure par terme des taux d’intérêt d’un pays africain et aussi son économie émergente. A l’aide des proxies, et d’une ACP sur la courbe des taux de ces trois pays, ces facteurs ont été analysés sur la base de leur qualité d’ajustement. Le dernier point a pour but de traiter les indicateurs macroéconomiques et financiers qui peuvent expliquer les facteurs endogènes extraits. / The financial crisis of recent years has re-opened the debate of the so-called "risk-free" government bonds. Faced with economic and financial issues, credit institutions and financial institutions had reviewed the methods of bonds evaluation. The aim of this thesis is the modeling and management of the bonds prices and is organized on four points. In the first point, we present theoretical approaches on traditional models of interest rates. In the second point, we design a test model named M-M by discretizing the continuous-time models of the short interest rate and using the GARCH family models. This model is constructed by incorporating the level effect of the short term interest rates and GARCH (1,1) effect. The M-M estimation results suggest considering both effects for modeling Treasury bills yields. The third point determines the factors that can be interpreted as the level, slope and curvature, these factors are extracted from two models that are dynamics extensions of the Nelson and Siegel functional. We use Yield Curves of the United States, France and South Africa. The presence of South Africa in this study is due to our desire to treat the term structure of interest rates in an African country which is an emerging economy as well. These factors were analyzed on the basis of their goodness of fit. The last point aims to address macroeconomic and financial indicators that can explain the endogenous factors.
72

Qu'est-il arrivé au taux d'intérêt neutre canadien après la crise financière de 2008?

Rocheleau, William 09 November 2022 (has links)
Selon Dorich et al. (2017), la Banque du Canada estime que le taux d'intérêt neutre nominal, qui se situait autour de 5% dans les années 1990, a chuté pour atteindre un peu moins de 4% vers le milieu des années 2000. Ce travail a comme objectif de confirmer ou d'infirmer la conjecture selon laquelle la baisse du taux d'intérêt neutre au Canada se serait poursuivie après la crise financière de 2008. Cette conjecture a été avancée par certains économistes en raison de la faible inflation observée après la crise financière de 2008 malgré un taux directeur extrêmement bas (proche de 0%). Plusieurs économistes de la Banque du Canada se sont déjà attardés à cette problématique, notamment Mendes (2014) et Dorich et al. (2017). Afin de confirmer ou d'infirmer cette conjecture, le taux d'intérêt neutre au Canada après la crise financière de 2008 est estimé dans ce travail en utilisant une analyse économétrique rigoureuse. Plus précisément, un modèle de bris structurel couplé à une approche bayésienne avec Monte-Carlo par chaînes de Markov est employé. Ce travail s'inspire de certaines spécifications postulées dans Laubach et Williams (2003) ainsi que de la méthodologie énoncée dans Gordon et Bélanger (1996). Les données trimestrielles utilisées dans ce travail couvrent la période allant du premier trimestre de 1993 jusqu'au quatrième trimestre de 2019. À la lumière des résultats obtenus, il est possible de confirmer la conjecture selon laquelle il y aurait eu une baisse du taux d'intérêt neutre au Canada après la crise économique de 2008. En effet, la simulation effectuée semble placer le taux d'intérêt neutre nominal dans une fourchette de 4.00% à 4.25% pour la période allant du premier trimestre de 1993 jusqu'au deuxième et troisième trimestre de 2008, alors qu'il semble plutôt se situer dans une fourchette de 0.65% à 1.00% pour la période allant du deuxième et troisième trimestre de 2008 jusqu'au quatrième trimestre de 2019. / According to Dorich et al. (2017), Bank of Canada's estimates of the nominal neutral rate of interest, which were around 5% in the 1990's, fell to just under 4% in the early beginning of the 2000's. This paper aims to confirm or invalidate the conjecture that the decline in the neutral rate of interest in Canada has continued after the financial crisis of 2008. This conjecture was put forward by some economists because of the low inflation observed after the financial crisis of 2008 despite an extremely low policy rate (close to 0%). Several Bank of Canada economists have already worked on this issue, including Mendes (2014) and Dorich et al. (2017). In order to confirm or refute this conjecture, the neutral rate of interest in Canada after the financial crisis of 2008 is estimated in this work using a rigorous econometric analysis. More precisely, a structural break model coupled with a Bayesian approach with Markov Chain Monte Carlo is used. This paper uses certain specifications postulated in Laubach et Williams (2003) as well as the methodology stated in Gordon et Bélanger (1996). The quarterly data used in this work covers the period from the first quarter of 1993 to the fourth quarter of 2019. In light of the results obtained, it is possible to confirm the conjecture stating that there has been a drop in the neutral rate of interest in Canada after the economic crisis of 2008. Indeed, the simulation carried out seems to place the nominal neutral rate of interest in a range of 4.00% to 4.25% for the period going from the first quarter of 1993 to the second and third quarters of 2008, while it seems to be in a range of 0.65% to 1.00% for the period going from the second and third quarters of 2008 to the fourth quarter of 2019.
73

Déviations de la condition CIP : une analyse avec les données canadiennes

Fang, Yuao 15 June 2021 (has links)
Ce document analyse les déviations observées dans la condition de la parité couverte des taux d'intérêt (CIP), exprimée entre le dollar américain et le dollar canadien, qui semblent s'être accentuées depuis la crise financière mondiale de 2008. Pour ce faire, l'étude met l'accent sur trois facteurs macroéconomiques pouvant potentiellement expliquer ces déviations : la liquidité des marchés de change mondiaux, le sentiment de risque sur les marchés financiers et la force relative du dollar américain. Les données utilisées construisent les déviations de la CIP à partir de données sur les taux d'intérêt, sur les taux de change spot et sur les taux de change à terme qui proviennent de Bloomberg. Nos résultats confirment la majorité des études empiriques en montrant que le principe de la CIP demeure un bon guide pour analyser les relations entre les taux de change à terme et au comptant et les taux d'intérêt, même si cette condition ne tient pas exactement et à tout moment. Les déviations de la condition CIP, lorsqu'elles surviennent, semble être liées de manière significative à la force du dollar américain, particulièrement dans l'ère post-crise. / This paper analyzes deviations in the covered interest rate parity (CIP) condition between the U.S. and Canadian dollars, which appear to have increased since the global financial crisis of 2008. To do so, the study focuses on three macroeconomic factors that can potentially explain these deviations: capital liquidity, risk sentiment in financial markets, and the relative strength of the US dollar. The data used constructs CIP deviations from data on interest rates, spot exchange rates, and forward exchange rates that come from Bloomberg. Our results confirm the majority of empirical studies by showing that the CIP principle remains a good guide for analyzing the relationship between forward and spot exchange rates and interest rates, even though this condition does not hold exactly at all times. Deviations from the CIP condition, when they occur, appear to be significantly related to the strength of the U.S. dollar, particularly in the post-crisis era.
74

Rendements boursiers canadiens : une analyse de facteurs macroéconomiques et financiers

Therrien, Nicolas 24 April 2018 (has links)
L'objectif de ce mémoire est de déterminer si la dimension du risque macroéconomique est incorporée dans le prix des actions canadiennes cotées en bourse sur le Toronto Stock Exchange. Une extension du modèle à trois facteurs de Fama et French (1992) est proposée afin d'inclure certains facteurs macroéconomiques, soit l'indice du taux de change effectif canadien de la Banque du Canada, l'écart entre les taux de long et de court terme, la variation du taux sans risque ainsi que l'indice de produits de base de la Banque du Canada, et de déterminer si ceux-ci permettent de mieux expliquer les rendements boursiers au Canada. Les estimations, réalisées sur une période allant de 2000 à 2015, montrent que seuls les facteurs du taux de change et de l'écart de taux d'intérêt sont incorporés dans le prix des actions.
75

Qu'est-il arrivé au taux d'intérêt neutre canadien après la crise financière de 2008?

Rocheleau, William 09 November 2022 (has links)
Selon Dorich et al. (2017), la Banque du Canada estime que le taux d'intérêt neutre nominal, qui se situait autour de 5% dans les années 1990, a chuté pour atteindre un peu moins de 4% vers le milieu des années 2000. Ce travail a comme objectif de confirmer ou d'infirmer la conjecture selon laquelle la baisse du taux d'intérêt neutre au Canada se serait poursuivie après la crise financière de 2008. Cette conjecture a été avancée par certains économistes en raison de la faible inflation observée après la crise financière de 2008 malgré un taux directeur extrêmement bas (proche de 0%). Plusieurs économistes de la Banque du Canada se sont déjà attardés à cette problématique, notamment Mendes (2014) et Dorich et al. (2017). Afin de confirmer ou d'infirmer cette conjecture, le taux d'intérêt neutre au Canada après la crise financière de 2008 est estimé dans ce travail en utilisant une analyse économétrique rigoureuse. Plus précisément, un modèle de bris structurel couplé à une approche bayésienne avec Monte-Carlo par chaînes de Markov est employé. Ce travail s'inspire de certaines spécifications postulées dans Laubach et Williams (2003) ainsi que de la méthodologie énoncée dans Gordon et Bélanger (1996). Les données trimestrielles utilisées dans ce travail couvrent la période allant du premier trimestre de 1993 jusqu'au quatrième trimestre de 2019. À la lumière des résultats obtenus, il est possible de confirmer la conjecture selon laquelle il y aurait eu une baisse du taux d'intérêt neutre au Canada après la crise économique de 2008. En effet, la simulation effectuée semble placer le taux d'intérêt neutre nominal dans une fourchette de 4.00% à 4.25% pour la période allant du premier trimestre de 1993 jusqu'au deuxième et troisième trimestre de 2008, alors qu'il semble plutôt se situer dans une fourchette de 0.65% à 1.00% pour la période allant du deuxième et troisième trimestre de 2008 jusqu'au quatrième trimestre de 2019. / According to Dorich et al. (2017), Bank of Canada's estimates of the nominal neutral rate of interest, which were around 5% in the 1990's, fell to just under 4% in the early beginning of the 2000's. This paper aims to confirm or invalidate the conjecture that the decline in the neutral rate of interest in Canada has continued after the financial crisis of 2008. This conjecture was put forward by some economists because of the low inflation observed after the financial crisis of 2008 despite an extremely low policy rate (close to 0%). Several Bank of Canada economists have already worked on this issue, including Mendes (2014) and Dorich et al. (2017). In order to confirm or refute this conjecture, the neutral rate of interest in Canada after the financial crisis of 2008 is estimated in this work using a rigorous econometric analysis. More precisely, a structural break model coupled with a Bayesian approach with Markov Chain Monte Carlo is used. This paper uses certain specifications postulated in Laubach et Williams (2003) as well as the methodology stated in Gordon et Bélanger (1996). The quarterly data used in this work covers the period from the first quarter of 1993 to the fourth quarter of 2019. In light of the results obtained, it is possible to confirm the conjecture stating that there has been a drop in the neutral rate of interest in Canada after the economic crisis of 2008. Indeed, the simulation carried out seems to place the nominal neutral rate of interest in a range of 4.00% to 4.25% for the period going from the first quarter of 1993 to the second and third quarters of 2008, while it seems to be in a range of 0.65% to 1.00% for the period going from the second and third quarters of 2008 to the fourth quarter of 2019.
76

Études des phénomènes photochimiques des nitrates et analyse de la cinétique lors de la photolyse de l'acide nitrique

Pronovost, Stéphanie January 2012 (has links)
La Terre est en grande partie recouverte d'eau et il est possible de retrouver ce composé sous plusieurs formes. L'une d' entre-elles, la neige, s'étend sur de vastes territoires, que ce soit durant quelques mois ou à longueur d'année, et ce grand manteau blanc semble éclatant de pureté ainsi que briller sous les rayons du soleil. Mais est-ce vraiment le cas? Selon de nombreuses études réalisées dans les régions polaires, il semblerait que plusieurs processus physiques et chimiques prennent place dans la neige, ce qui implique qu'elle soit donc hautement active photochimiquement. Cela signifie qu'il y a présence de photolyse vis-à-vis des impuretés contenues dans le couvert neigeux lors de l'irradiation de la surface par le soleil. De ce fait, il y a production de composés qui peuvent contribuer à la pollution de l'environnement. Un des principaux flux photochimiques, le rejet de NO x , est provoqué par la transformation photolytique des nitrates et il semble alors essentiel de se pencher sur la compréhension du mécanisme ainsi que des facteurs qui influencent ce phénomène afin d' aider à résoudre ce problème environnemental. L'ouvrage présenté correspond à la poursuite des travaux débutés lors de la thèse du Dr Patrick Marchand intitulée Photolyse des nitrates dans la glace : Effet de surface. Ce mémoire vient solidifier les bases de ce projet et établir de nouveaux concepts concernant les réactions photochimiques des nitrates. Par conséquent, la reproduction en laboratoire de la réaction de photolyse impliquant des ions nitrates semble nécessaire et déterminante à la réalisation du projet exposé. Pour cela, il est intéressant de débuter l'étude de la photolyse des nitrates à partir d'un milieu plus accessible et donc d'utiliser des solutions aqueuses. Ainsi, la progression de la réaction peut être analysée par spectroscopie UV-Visible et il est possible d'étudier les différents facteurs (concentration, pH, température,...) influençant le taux de photolyse en milieu aqueux. Par la suite, les résultats obtenus peuvent s'avérer utiles lors de la photolyse des nitrates en milieu solide effectuée dans une chambre d'analyse sous vide avec la spectroscopie infrarouge comme méthode de détection. Lors des diverses expériences réalisées au laboratoire, il a été possible de constater que la réaction de photolyse présentait une cinétique du premier ordre et donc que la concentration des réactifs affectait la vitesse de photolyse. En solutions, la variation du pH et l'ajout de nitrite présentent également un effet sur la vitesse de la réaction. De plus, l'évaluation du taux de photolyse a permis de déterminer que l'ion nitrite représentait le produit majoritaire contrairement aux résultats décrits dans la littérature. Du côté de la phase condensée, l'analyse de la cinétique a également révélé qu'un processus de recombinaison pouvait expliquer l'allure des données expérimentales. En somme, ce travail illustre l'avancement face à la compréhension de la photolyse des nitrates et il démontre la nécessité de persévérer dans la quête de solutions pour ce phénomène de grande envergure qui cause de nombreux impacts environnementaux.
77

Sur les intervalles de confiance bayésiens pour des espaces de paramètres contraints et le taux de fausses découvertes

Bahamyirou, Asma January 2015 (has links)
Ce mémoire traite deux problèmes : en premier lieu, l'estimation paramétrique par intervalle dans un contexte où il y a des contraintes sur le paramètre et, en deuxième lieu la probabilité de fausses découvertes lorsqu'on réalise simultanément plusieurs tests d'hypothèses. Dans le premier chapitre, nous faisons un rappel sur les notions de base de l'inférence statistique à savoir l'estimation ponctuelle et par intervalle. Dans le deuxième chapitre, nous abordons la théorie de l'estimation par intervalle de confiance bayésien décrit dans [10]. Des résultats nouveaux sont présentés dans ce chapitre. Des travaux partiels (voir [7]), montrent que la probabilité de recouvrement fréquentiste est faible aux frontières de l'intervalle. Comparé à ces derniers, nous avons montré sous certaines conditions que cette probabilité n'ira jamais au delà d'une borne supérieure qui semble éloignée de la crédibilité. Finalement, au Chapitre 4, nous traitons des estimateurs de la probabilité de fausses découvertes. Des améliorations significatives ont été faites dans ce cadre.
78

Valorisation des matériaux granulaires recyclés dans le béton de ciment pour usage résidentiel

Boulay, Vincent January 2014 (has links)
La réutilisation et la valorisation de débris de démolition sont un enjeu très important pour l’industrie de la construction, particulièrement au Canada où un grand nombre d’infrastructures arrivent à la fin de leur cycle de vie. Bien que les débris de démolition soient déjà utilisés dans la construction de sous fondations de routes, ceux-ci sont très peu utilisés dans la confection de nouveaux bétons. Ce projet de recherche vise à évaluer le potentiel d’utilisation d’un matériau recyclé à base de débris de démolition dans la confection de nouveaux bétons de résistance moyenne destinés à la construction résidentielle. Le matériau recyclé utilisé dans le cadre de cette étude est un matériau de classe MR-2, composé en majorité de résidus de béton concassé. Cette étude consiste en l’analyse des propriétés des granulats de béton recyclés ainsi que leur impact sur les propriétés des bétons dans lesquels ils sont utilisés en remplacement des granulats naturels. En plus des essais classiques tels que l’analyse granulométrique, la mesure de la masse volumique, de l’absorption et l’essai Los Angeles, la caractérisation des granulats recyclés à permis de mesurer la teneur en mortier résiduel ainsi que la vitesse d’absorption. Les résultats de cette phase ont permis d’adapter la méthode de préparation des bétons confectionnés lors de l’étude paramétrique sur béton. En effet, lors de la confection des bétons, une période de pré-saturation des granulats a été ajoutée au protocole de malaxage afin de minimiser l’impact de la grande porosité des granulats recyclés sur les propriétés à l’état frais du béton. Dans le cadre de l’étude paramétrique, des formulations de béton ayant des rapports eau/liant (E/L) de 0,55 et 0,65 ont été préparées à des taux de remplacement des granulats naturel par des granulats recyclés variables. La résistance à la compression, la résistance à la traction, la résistance à la flexion et le module d’élasticité ainsi que les propriétés de durabilité, notamment, la perméabilité aux ions chlores, le retrait de séchage, la résistance au gel-dégel et la perméabilité à l’eau ont été évaluées pour les mélanges de bétons confectionnés. Les travaux de cette phase ont permis de quantifier l’impact des différents taux de remplacement sur les propriétés des bétons. Bien que le remplacement du granulat naturel par un granulat recyclé ait généralement un impact négatif sur certaines propriétés du béton, il est possible de minimiser ou même d’éliminer celui-ci en optimisant le taux de remplacement. En effet, cette étude a démontré qu’un taux de remplacement de 20% ou même de 35% dans certains cas ne cause pas ou très peu d’impacts négatifs sur les propriétés du béton.
79

Conception de matrices de diodes avalanche à photon unique sur circuits intégrés CMOS 3D

Bérubé, Benoît-Louis January 2014 (has links)
La photodétection est un sujet de recherche très actif encore de nos jours et l’industrie, particulièrement de la physique des hautes énergies et de l’imagerie médicale, est en quête de détecteurs avec une plus grande sensibilité, de meilleures résolutions temporelles et une plus grande densité d’intégration. Pour ces raisons, les photodiodes avalanche à photon unique (Single photon avalanche diode, ou SPAD) suscitent beaucoup d’intérêt depuis quelques années pour ses performances en temps et sa grande photosensibilité. Les SPAD sont des photodiodes avalanche opérées au-dessus de la tension de claquage et un photoporteur atteignant la région de multiplication peut à lui seul déclencher une avalanche soutenue de porteurs et entraîner le claquage de la jonction. Un circuit détecte le courant divergent et l’étouffe en abaissant la polarisation de la jonction sous la tension de claquage. Le circuit recharge ensuite la jonction en réappliquant la tension initiale permettant la détection d’un nouveau photon. Dans le but d’augmenter le nombre de photons simultanés détectables, les SPAD s’intègrent en matrice. Cependant, dans le cas où une matrice de SPAD et leurs circuits d’étouffement s’intègrent sur le même substrat, la surface photosensible devient limitée par l’espace qu’occupent les circuits d’étouffement. Dans le but d’augmenter leur région photosensible, les matrices de SPAD peuvent s’intégrer en trois dimensions (3D) avec leurs circuits d’étouffement. Ce projet porte sur le développement de matrices de SPAD en technologie CMOS HV 0,8 µm de Teledyne DALSA dédiées à une intégration 3D avec leurs circuits d’étouffement actifs. Les résultats de caractérisation montrent que les SPAD atteignent une résolution temporelle de 27 ps largeur à mi hauteur (LMH), possèdent un taux de comptage en obscurité (DCR, ou Dark Count Rate) de 3 s[indice supérieur -1]µm[indice supérieur -2] et ont une probabilité de photodétection (PDP) de 49 %. De plus, une méthode d’isolation utilisant un puits p a été développée. Les SPAD conçus avec cette méthode ont un facteur de remplissage pouvant atteindre 54 % et une probabilité de diaphonie de 6,6 % à une tension excédentaire à la tension de claquage (V[indice inférieur E]) de 4 V.
80

Déterminants du vote rétrospectif aux élections scolaires en Californie.

Lapierre, Stéphanie January 2014 (has links)
La littérature reconnaît depuis longtemps que la performance économique peut influencer les résultats électoraux. Les chercheurs n’ont, cependant, pas encore réussi à démontrer que le phénomène se produit systématiquement d’une élection à l’autre et d’une juridiction à l’autre. En nous concentrant sur les élections tenues dans des gouvernements locaux à fonction unique, comme les commissions scolaires, nous pensons réussir à mieux comprendre l’évaluation que font les électeurs de la performance des élus. Ce mémoire s’intéresse à l’efficacité du processus démocratique en place dans les commissions scolaires. Plus particulièrement, nous étudions le lien entre les résultats électoraux et la performance des élus dans les commissions scolaires. Nous faisons l’hypothèse que la performance des élus passe par trois mesures de performance, soit l’Academic Performance Index (API), le taux de décrochage et le ratio élèves-enseignant. En plus de nous intéresser au lien entre les résultats électoraux et la performance des élus, nous prenons le temps de bien comprendre et d’analyser les déterminants de la performance elle-même ainsi que du taux de participation. Pour ce faire, nous analysons les résultats des élections scolaires tenues en Californie entre 1995 et 2009. Avec notre vaste base de données, nous arrivons à trouver plusieurs facteurs déterminants dans chacun des modèles étudiés. Bien que peu de nos résultats pointent directement dans le sens du vote rétrospectif lors des élections scolaires californiennes, ces quelques résultats tendent à indiquer que le phénomène est bel et bien présent.

Page generated in 0.0664 seconds