• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 9
  • 1
  • Tagged with
  • 27
  • 27
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Essai sur des tests de spécification pour des modèles financiers

Vo, Thi Thuy Anh January 2007 (has links) (PDF)
Dans cette thèse, nous présentons trois essais sur des tests de spécification des modèles financiers. Notre objectif est de développer une procédure optimale adaptative pour tester la spécification des modèles financiers basée sur les tests de Hong (1996) modifiés. Avec cette procédure, les tests ont des propriétés optimales et ils détectent les alternatives locales à la Pitman à un taux qui est proche de n-½. Le premier essai propose une procédure optimale adaptative pour tester la dépendance temporelle de forme inconnue basée sur les tests de Hong (1996) modifiés. Ces derniers sont basés sur la distance entre l'estimateur non paramétrique de la densité spectrale normalisée et celle provenant de la contrainte imposée par l'hypothèse nulle. Ils se distinguent par la mesure de distance choisie, soit la norme quadratique, la métrique de Helling ou encore le critère d'information de Kullback-Leibler. Sous l'hypothèse nulle, nos tests modifiés sont asymptotiquement distribués selon une loi N (0,1). Les avantages des tests basés sur la procédure optimale adaptative en comparaison avec les tests de Hong sont les suivants: (1) Le paramètre du noyau n'est pas choisi de façon arbitraire mais est plutôt déterminé par les données. (2) Les tests sont de type adaptatif à taux optimaux dans le sens de Horowitz et Spokoiny (2001). (3) Ils détectent l'alternative à la Pitman à un taux proche de n-½ . Nos simulations montrent que les tests basés sur notre procédure ont un niveau plus précis tout en étant plus puissants que les tests de Box et Pierce (1970) (BP), de Ljung et Box (1978) (LB), les tests du multiplicateur de Lagrange de Breusch (1978) et Goldfrey (1978) (LlVI) et les tests de Hong (1996). Dans le deuxième essai, nous appliquons la procédure optimale proposée dans le premier afin de détecter les effets ARCH (hétéroscédasticité conditionnelle autorégressive) et ACD (autorégressif de durée conditionnelle). Cette procédure permet de choisir le paramètre du noyau à partir des données et ainsi obtenir des tests avec des propriétés optimales. À l'aide de simulations, nous montrons que notre procédure génère des tests dont le niveau est exact et qui sont plus puissants que les tests LM, BP, LB ainsi que ceux de Hong pour tester les effets ARCH et ACD. Par la suite, on applique notre procédure à certaines applications basées sur des données financières afin d'illustrer les conclusions obtenues. L'objectif du troisième essai est d'augmenter la puissance des tests basés sur la procédure optimale adaptative présentés dans le premier en choisissant une bande de fréquence pertinente pour la fonction de densité spectrale. Dans le premier essai, les tests basés sur la procédure optimale pour détecter la dépendance temporelle sont basés sur l'estimateur non paramétrique de la densité spectrale en utilisant la bande de fréquences entière [-π, π]. L'idée principale est que la puissance des tests basés sur une fonction de densité spectrale dépend de la position de son sommet. Notre première classe de statistiques de tests en est une qui se concentre sur une bande de fréquences fixée et arbitraire. Il est connu que quand le sommet du spectre se trouve à la fréquence zéro et que la puissance spectrale est concentrée aux basses fréquences, les tests pour détecter la dépendance temporelle aux basses fréquences sont probablement puissants mais dans le cas où le spectre a un sommet à une fréquence autre que zéro, la puissance des tests est probablement faible. Nos simulations confirment cette intuition. Les deux dernières classes contiennent des tests de type supremum symétriques ou non-symétriques. Ils consistent à choisir une bande de fréquences symétriques ou non-symétriques de telle sorte que les statistiques sont maximisées. À l'aide de simulations, nous trouvons que les tests provenant des classes de type supremum sont plus puissants que ceux présentés dans le premier essai. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Économétrie, Finance, Modèle, Séries temporelles.
2

Prévision humaine de séries temporelles

Gagnon, Jean-François 20 April 2018 (has links)
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
3

Les modèles VAR(p)

Chukunyere, Amenan Christiane 31 July 2019 (has links)
Ce mémoire a pour objectif d’étudier une famille de méthodes pour modéliser de façon conjointe plusieurs séries temporelles. Nous nous servons de ces méthodes pour prédire le comportement de cinq séries temporelles américaines et de ressortir les liens dynamiques qui pourraient exister entre elles. Pour ce faire, nous utilisons les modèles de vecteurs autorégressifs d’ordre p proposés par Sims (1980) qui sont une généralisation multivariée des modèles de Box et Jenkins. Tout d’abord, nous définissons un ensemble de concepts et outils statistiques qui seront utiles à la compréhension de notions utilisées par la suite dans ce mémoire. S’ensuit la présentation des modèles et de la méthode de Box et Jenkins. Cette méthode est appliquée à chacune des cinq séries en vue d’avoir des modèles univariés. Puis, nous présentons les modèles VAR(p) et nous faisons un essai d’ajustement de ces modèles à un vecteur dont les composantes sont les cinq séries. Nous discutons de la valeur ajoutée de l’analyse multivariée par rapport à l’ensemble des analyses univariées / This thesis aims to study a family of methods to jointly model several time series. We use these methods to predict the behavior of five US time series and to highlight the dynamic links that might exist between them. To do this, we use the p-order autoregressive vector models proposed by Sims (1980), which are a multivariate generalization of the Box and Jenkins models. First, we define a set of concepts and statistical tools that will be useful for the understanding of notions used later in this thesis. Follows the presentation of the models and the method of Box and Jenkins. This method is applied to each of the five series in order to have univariate models. Then, we present the VAR(p) models and we test the fit of these models to a vector series whose components are the five aforementioned series. We discuss the added value of multivariate analysis compared to the five univariate analyzes.
4

Prédiction de l'instabilité dynamique des réseaux électriques par apprentissage supervisé des signaux de réponses post-contingence sur des dictionnaires surcomplets

Teukam Dabou, Raoult 20 April 2022 (has links)
Ces dernières décennies, l'intégration aux réseaux électriques de capteurs intelligents incorporant la mesure synchronisée des phaseurs a contribué à enrichir considérablement les bases de données de surveillance en temps réel de la stabilité des réseaux électriques. En parallèle, la lutte aux changements climatiques s'est accompagnée d'un déploiement généralisé des sources d'énergies renouvelables dont l'intermittence de la production et le déficit d'inertie dû à l'interface de celle-ci par l'électronique de puissance, contribuent à augmenter les risques d'instabilité à la suite de contingences de réseau. Dans ce contexte, nous proposons d'appliquer aux données de synchrophaseurs de nouvelles approches d'intelligence de données inspirées par l'analyse massive des séries chronologiques et l'apprentissage sur des dictionnaires supervisés, permettant d'extraire des centaines d'attributs décrivant concisément les estimations d'état dynamique des générateurs de réseaux électriques. La mise en évidence d'une signification physique de ces attributs permet ensuite une classification de la stabilité dynamique qui s'éloigne de ce fait des boîtes noires produites par un apprentissage en profondeur « à l'aveugle » des séries chronologiques, pour évoluer vers une approche transparente plus adaptée à la salle de conduite des réseaux et acceptable pour les ingénieurs d'exploitation. Cette approche d'apprentissage machine « interprétable » par les humains, débouche de surcroît sur une détection fiable, utilisant de courtes fenêtres de données de vitesses d'alternateurs directement mesurées ou reconstituées par estimation d'état dynamique à partir de l'instant d'élimination du défaut, pour détecter toute instabilité subséquente, avec un temps de préemption suffisant pour activer des contremesures permettant de sauvegarder la stabilité du réseau et ainsi prévenir les pannes majeures. Notre travail aborde l'exploitation de cette nouvelle niche d'information par deux approches complémentaires d'intelligence des données : 1) une analyse non parcimonieuse d'une base d'attributs se chiffrant par centaines, calculés automatiquement par l'analyse numérique massive des séries chronologiques de signaux de réponses post-contingence des générateurs; et 2) une analyse parcimonieuse exploitant l'apprentissage supervisée de grands dictionnaires surcomplets pour habiliter une prédiction de l'instabilité sur de courtes fenêtres de données avec une représentation vectorielle creuse (contenant un grand nombre de zéros) et donc numériquement très efficiente en plus de l'interprétabilité inhérente des atomes constituant les dictionnaires. Au niveau méthodologique, l'approche non parcimonieuse vise à implémenter plusieurs méthodes analytiques combinées (notamment la transformée de Fourier, la transformée en ondelette, la méthode de Welch, la méthode de périodogramme et les exposants de Lyapunov) pour extraire du signal de réponse de chaque générateur des centaines d'attributs labellisés et servant à construire un espace physique d'indicateurs de stabilité à haute dimension (HDSI). Ceux-ci sont ensuite utilisés pour développer les prédicteurs de stabilité sur la base d'algorithmes standard de machine learning, par exemple le convolutional neural network (CNN), long short-term memory (LSTM), support vector machine (SVM), AdaBoost ou les forêts aléatoires. L'approche parcimonieuse implémentée consiste à développer deux techniques complémentaires : 1) un dictionnaire d'apprentissage supervisé joint (SLOD) au classificateur et 2) vingt dictionnaires d'apprentissage séparés des signaux associés aux cas stable/instable. Alors que le SLOD utilise des dictionnaires adaptatifs inspirés des données mesurées et apprises hors-ligne, la deuxième approche utilise des dictionnaires fixes pour reconstruire séparément les signaux des classes stables et instables. Dans les deux cas, l'étape finale consiste à identifier automatiquement en temps réel, la classe d'appartenance d'une réponse par reconstruction des signaux associés à partir des dictionnaires appris hors-ligne. L'analyse parcimonieuse des réponses des générateurs sur un dictionnaire d'apprentissage adaptatif joint au classificateur a été implémenté à partir de l'algorithme K-singular value de composition (KSVD) couplé à l'orthogonal matching pursuit (OMP), afin de reconstruire et prédire la stabilité dynamique des réseaux électriques. De plus, vingt décompositions parcimonieuses des signaux sur des dictionnaires fixes (simples et hybrides) ont permis de développer des classificateurs prédisant chaque classe séparément sur la base de la transformée en cosinus discrète (DCT), en sinus discrète (DST), en ondelette (DWT), de la transformée de Haar (DHT), et le dictionnaire de Dirac (DI) couplés à l'orthogonal matching pursuit (OMP). Cette étude démontre que la décomposition parcimonieuse sur un dictionnaire adaptatif joint au classificateur offre une performance proche de l'idéal (c'est-à-dire : 99,99 % précision, 99,99 % sécurité et 99,99 % fiabilité) de loin supérieure à celle d'un classificateur à reconstruction de signaux basée sur les vingt dictionnaires fixes ou adaptatifs séparés, et les classificateurs basés sur les moteurs de machine learning (SVM, ANN, DT, RF, AdaBoost, CNN et LSTM) implémentés à partir des indices HDSI extraits de la base de données des vitesses des rotors des réseaux IEEE 2 area 4 machines, IEEE 39 -bus et IEEE 68 -bus. Toutefois, le temps de resimulation (replay) en temps réel des dictionnaires fixes/adaptatifs séparés est nettement inférieur (de 30-40%) à celui observé pour le dictionnaire adaptatif à classificateur joint / SLOD, et les algorithmes modernes de machine learning utilisant les attributs de type HDSI comme intrants. / In recent decades, the integration of smart sensors incorporating synchronized phasor measurements units (PMU) into power grids has contributed to a significant improvement of the databases for real-time monitoring of power grid stability. In parallel, the fight against climate change has been accompanied by a widespread deployment of renewable energy sources whose intermittency of production and the lack of inertia due to the interface of the latter by power electronics; contribute to increase the risks of instability following network contingencies. In this context, we propose to apply new data intelligence approaches inspired by massive time series analysis and supervised dictionary learning to synchrophasor data, allowing the extraction of hundreds of attributes concisely describing the dynamic state estimates of power system generators. The physical meaning identification of these attributes then allows for an online classification of dynamic stability, thus moving away from the black boxes produced by «blind» deep learning of time series to a transparent approach more suitable for the network control room and acceptable to operating engineers. This human-interpretable machine learning approach also leads to reliable detection, using short windows of generator speed data directly measured or reconstructed by dynamic state estimation from the instant of fault elimination, to detect any subsequent instability, with sufficient preemption time to activate false measures to safeguard the network stability and thus prevent major outages. Our work addresses the exploitation of this new information through two complementary data intelligence approaches : 1) a non-sparse analysis of an attribute base numbering in the hundreds, computed automatically by massive numerical analysis of post-contingency response signal time series from generators; and 2) a sparse analysis exploiting supervised learning of large overcomplete dictionaries to enable instability prediction over short windows of data with a hollow vector representation (containing a large number of zeros) and thus numerically very efficient in addition to the inherent interpretability of the atoms constituting the dictionaries. Methodologically, the non-sparse approach aims to implement several combined analytical methods (including Fourier transform, wavelet transform, Welch's method, periodogram method and Lyapunov exponents) to extract hundreds of labeled attributes from the response signal of each generator and used to construct a physical space of high-dimensional stability indicators (HDSI). These are used to develop stability predictors based on standard machine learning algorithms, e.g., CNN, LSTM, SVM, AdaBoost or random forests. The implemented sparse approach consists in developing two complementary techniques: 1) a supervised learning dictionary attached (SLOD) to the classifier and 2) twenty separate dictionaries learning of the signals associated with the stable/instable cases. While the SLOD uses adaptive dictionaries inspired by the measured and learned offline data, the second approach uses fixed dictionaries to reconstruct the stable and unstable signals classes separately. In both cases, the final step is automatically identified in real time the status to which a response belongs by reconstructing the associated signals from the off-line learned dictionaries. The sparse analysis of generator responses on an adaptive learning dictionary attached to the classifier was implemented using the K-singular value decomposition (KSVD) algorithm coupled with orthogonal matching pursuit (OMP), to reconstruct and predict online the dynamic stability of power systems. In addition, twenty sparse signal decompositions on fixed dictionaries (simple and hybrid) were used to develop classifiers predicting each class separately based on the discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform (DWT), Haar transform (DHT), and Dirac dictionary (DI) coupled with the orthogonal matching pursuit (OMP). This study demonstrates that sparse decomposition on joined adaptive dictionary to the classifier provides near ideal performance (i.e.: 99.99% accuracy, 99.99% security, and 99.99% reliability) far superior to that of a classifier has signal reconstruction based on the twenty separate fixed or adaptive dictionaries and classifiers based on machine learning engines (SVM, ANN, DT, RF, AdaBoost, CNN, and LSTM) implemented from HDSI indices extracted from the rotor speed database of the IEEE 2 area 4 machines, IEEE 39 -bus, and IEEE 68 -bus test systems. However, the real-time replay time of the separate fixed/adaptive dictionaries is significantly lower (by 30-40%) than that observed for the adaptive dictionary with joint classifier/SLOD, and modern machine learning algorithms using HDSI-like attributes as inputs.
5

Contributions dans l'analyse des modèles vectoriels de séries chronologiques saisonnières et périodiques

Ursu, Eugen January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
6

Contributions dans l'analyse des modèles vectoriels de séries chronologiques saisonnières et périodiques

Ursu, Eugen January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
7

Évaluation des changements environnementaux de la Baie d'Hudson et du Bassin de Foxe au cours des derniers siècles, à partir de tracteurs palynologiques et micropaléontologiques

Ladouceur, Stéphanie January 2008 (has links) (PDF)
Les hautes latitudes sont des zones particulièrement sensibles vls-a-vis des changements climatiques. En dépit de ses dimensions importantes à l'échelle de l'est du Canada, la baie d'Hudson est un bassin des hautes latitudes mal connu pour ce qui concerne les variations climatiques et hydrographiques à des échelles de temps séculaires ou millénaires. On a donc ainsi souhaité développer des séries chronologiques et biostratigraphiques afin d'évaluer les changements hydroclimatiques et de productivité au cours des derniers siècles dans la baie d'Hudson. Des analyses micropaléontologiques, géochimiques et isotopiques ont été réalisées sur deux carottes de sédiments marins situées dans le sud est de la baie d'Hudson (HU92028H-027) et le bassin de Foxe (MERICA-04-08). Des mesures de 210Pb indiquent une vitesse de sédimentation de 0,26 cm.an-1 dans la carotte du sud est de la baie d'Hudson et de 0,1 cm.an-1 dans celle du bassin de Foxe. Dans le sud est de la baie d'Hudson, les concentrations de palynomorphes et les assemblages de dinokystes évoquent une augmentation de la productivité primaire au cours du dernier siècle. La reconstitution des conditions hydrographiques de surface indique un optimum thermique à la fin du 19e siècle, début du 20e siècle. De plus, les assemblages de foraminifères benthiques et leur composition isotopique indiquent une augmentation de la salinité dès les années 1960, dans la couche d'eau de fond. Dans le bassin de Foxe, en revanche, les différents traceurs semblent indiquer des conditions stables tant en surface qu'en profondeur. Des analyses palynologiques ont été réalisées sur des sédiments de surface provenant de 55 stations échantillonnées lors de missions réalisées entre les années 1987 et 2005. Les échantillons de surface nous permettent d'évaluer les différences de la répartition spatiale des assemblages de dinokystes dans la baie d'Hudson, dans le détroit d'Hudson et dans le bassin de Foxe entre les années 1980 et 2000. L'abondance des palynomorphes dans les sédiments de surface varie entre 200 et 42 000 kystes.cm-3, les concentrations les plus élevées se situant dans la zone sud est de la baie d'Hudson où les flux de dinokystes semblent plus élevés dans les années 1980 que dans les années 2000. Les assemblages de dinokystes montrent une forte dominance des taxons hétérotrophes (Brigantedinium spp., lslandinium minutum, lslandinium? cezare et Selenopemphix quanta) associés à de faibles températures et à une durée saisonnière élevée de la couverture de glace de mer dans le bassin de Foxe et le détroit d'Hudson tandis que les taxons autotrophes (Operculodinium centrocarpum, Spiniferites elongatus, Spiniferites ramosus, Spiniferites spp., Impagidinium pallidum et Pentapharsodinium dalei) dominent dans le sud est de la baie et sont associés à des températures plus élevées et à une forte productivité. Le centre ouest de la baie se caractérise par des assemblages de dinokystes indiquant des conditions plus clémentes et une productivité plus élevée dans les années 1980 que dans les années 2000. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Baie d'Hudson, Palynologie, Dinokystes, Foraminifères benthiques.
8

Analyse de la variabilité interannuelle de séries temporelles des niveaux d'eau souterraine dans trois régions du Canada

Tremblay, Lysandre January 2009 (has links) (PDF)
Les liens entre le climat et la dynamique des aquifères canadiens sont encore mal connus. L'analyse des phénomènes climatiques à grande échelle, qui s'est avérée utile pour comprendre les causes des fluctuations interannuelles des débits en rivière, pourrait également expliquer en partie les cycles observés dans les chroniques de niveaux piézométriques. Ce mémoire a pour objectif d'étudier les causes de la variabilité de ces chroniques. Les analyses en ondelettes et de corrélation sont appliquées sur des chroniques piézométriques, de précipitations et de températures dans trois régions du Canada. Des liens de cause à effet sont recherchés avec quatre indices climatiques: l'Oscillation Nord-Atlantique (ONA), l'Oscillation Arctique (OA), l'indice Pacifique-Amérique du Nord (PAN) et l'anomalie de température au-dessus de la zone Niño-3 (ENSO3). Dans une optique de développement durable, l'étude vise à mieux comprendre le système hydrométéorologique dans son ensemble permettant éventuellement une meilleure gestion de la ressource en eau. Les trois zones choisies sont situées à l'est, au centre et à l'ouest du Canada, pour tenter de représenter des conditions climatiques et géographiques très différentes, soit: l'Ile-du-Prince-Édouard, le sud du Manitoba près de Winnipeg et l'extrême sud de l'Île de Vancouver en Colombie-Britannique. Chacune de ces régions compte trois puits de surveillance qui possèdent des séries de niveaux d'eau d'au moins 32 ans. Sept des neuf unités aquifères étudiées sont à nappe libre. Ces unités sont granulaires pour les sites à l'Île-du-Prince-Édouard, au Manitoba et en Colombie-Britannique. Les chroniques de 32 ans (1974-2005) permettent de décrire les fluctuations interannuelles de périodes de six années ou moins. Les analyses en ondelettes sont donc présentées sous forme de moyenne de périodicité pour des bandes temporelles spécifiques de 2-3 ans et de 3-6 ans. Les résultats révèlent des liens entre certains indices climatiques et les niveaux piézométriques, et par extension avec la recharge, dans chacune des régions ciblées. Dans les trois régions, des corrélations significatives sont observées entre les indices climatiques et les séries piézométriques, surtout pour la bande 3-6 ans. Plus spécifiquement, pour l'Île-du-Prince-Édouard, l'indice ENSO3 est l'anomalie climatique correspondant le mieux à la variable hydrogéologique et ce, dans les deux bandes de variabilité. Dans les prairies, des interactions fortes sont présentes pour les deux bandes de variabilité avec l'indice PAN. À l'Île de Vancouver, les plus fortes relations concernent les indices PAN et l'indice ENSO3 pour la bande de 3-6 ans ainsi que l'ONA pour la bande 2-3 ans. De façon surprenante dans la plupart des cas, les corrélations observées entre les indices climatiques et les séries piézométriques s'avèrent plus fortes que celles obtenues avec les températures et les précipitations, ce qui pourrait provenir du fait que les séries piézométriques sont influencées par une combinaison de variables climatiques. Ces résultats montrent que la variabilité interannuelle des chroniques piézométriques canadiennes peut être expliquée en partie par les phénomènes climatiques à grande échelle. Ils ouvrent la voie à l'intégration de séries d'indices climatiques dans les calculs de prévision des niveaux d'eau souterraine, améliorant ainsi la capacité de gestion de la ressource en eau souterraine. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Niveaux piézométriques, Précipitations, Températures, Indices climatiques, Analyse en ondelettes, Variabilité interannuelle, Canada.
9

Impact des législations sur le contrôle des armes à feu à l'égard des tendances d'homicides au Canada : 1961-2002

Labalette, Anne-Marie January 2003 (has links)
No description available.
10

Le prix du risque idiosyncrasique : une analyse en séries temporelles et coupe transversale

Desrosiers, Maxime January 2020 (has links)
Le CAPM est une représentation stylisée de la rentabilité attendue des titres sur les marchés boursiers, mais comme plusieurs des hypothèses centrales du modèle ne tiennent pas lors d’analyses empiriques, sa pertinence en ce qui a trait aux paramètres prisés sur les marchés est limitée. L’objectif de ce mémoire est d’analyser s’il y a présence d’une prime de risque idiosyncrasique, de mesurer celle-ci et de voir si elle a un pouvoir explicatif significatif. Nous trouvons que les titres ayant les plus hauts risques idiosyncrasiques obtiennent des rendements le mois suivant de 1,18 à 1,98 point de pourcentage inférieur aux titres les moins risqués. En contrôlant pour la capitalisation boursière, l’effet persiste et le risque idiosyncrasique semble être un meilleur prédicteur du rendement d’une firme que la taille de celle-ci.

Page generated in 0.0861 seconds