• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 8
  • 1
  • Tagged with
  • 38
  • 38
  • 13
  • 13
  • 12
  • 10
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

La performance cyclique des outils prévisionnels : le cas de la devise canadienne

Tremblay, Nicolas 16 April 2018 (has links)
Depuis que Meese et Rogoff [1983] ont publié leur article sur la qualité des outils prévisionnels du taux de change des années 70, découvrir le meilleur type de modèle et la spécification la plus efficace est un sujet prolifique de la littérature en économie internationale. Ce mémoire conduira une comparaison bayesienne des principales modélisations utilisées pour prédire l'évolution du taux de change. La méthodologie mise en oeuvre sera celle proposée par Geweke [1994] qui se nomme l'importance sampling. Une comparaison des densités et des vraisemblances prédictives permettra de déterminer s'il est préférable d'utiliser le vecteur autorégressif ou le modèle à correction d'erreurs pour prédire les réalisations du taux de change lors des divers états de l'économie.
12

Le processus d'évaluation des probabilités subjectives

Brouillette, Marc. 23 April 2018 (has links)
Ellsberg (1961) a été l’un des premier à démontrer que les prises de décision en ambiguïté sont mal comprises. Le manque d’informations sur les probabilités des résultats possibles affecte le comportement des individus. Dans ce genre d’environnement, certains individus ont recourt à des heuristiques afin d’évaluer les probabilités de manière subjective. Nous proposons donc un modèle empirique exprimant le processus d’évaluation et de mises à jours des croyances basé sur le théorème de Bayes. À l’aide de données expérimentales, nous avons pu estimer le modèle et ainsi dégager certains types de comportement. Nous avons, entre autre, découvert que le niveau d’ambiguïté liées aux probabilités avait un effet sur le processus d’évaluation des probabilités subjectives. Enfin, selon nos résultats, seulement 10 % des participants se sont comportés comme le prédirait la règle de Bayes, dont plusieurs autres études prennent pour acquis.
13

La corrélation appliquée dans un contexte bayésien

Lepage, Maude 17 April 2018 (has links)
Bien que largement utilisée, la corrélation n'est pas souvent abordée dans un contexte bayésien. À l'aide de formules simples, on calcule ici la corrélation de Pearson entre un paramètre [thêta] et son estimation bayésienne ou par la méthode du maximum de vraisemblance. Ceci nous permet alors d'examiner le comportement de la corrélation de Pearson selon la taille de l'échantillon et le choix des paramètres de la loi a priori. On compare ensuite son comportement avec celui des corrélations de Spearman, de Kendall et de Blomqvist obtenues à l'aide de simulations effectuées avec le logiciel R. Plusieurs cas sont considérés faisant notamment intervenir des lois conjuguées.
14

Bayesian analysis of volatility models with semi-heavy tails, skewness and leverage effects

Amedah, Sid Ali 13 April 2018 (has links)
Cette thèse considère des modèles de volatilité où la distribution conditionnelle des données est un cas particulier de la loi "Generalized Hyperbolic" de Barndorff-Nielsen (1977). Ces modèles permettent de capter les principales caractéristiques des séries financières à haute fréquence, à savoir le groupement de volatilité (volatility clustering), l'excès de kurtosis et de skewness ainsi que l'effet de levier qui s'applique au rendements des marchés boursiers. Etant donnée la forme fortement non linéaire de cette densité, nous utilisons l'approche Bayesienne basée sur les méthodes Markov Chain Monte Carlo pour l'estimation et l'inférence Cette approche est relativement simple à mettre en oeuvre et permet une inférence exacte et valable en échantillon fini ainsi que la comparaison de modèles qui ne sont pas forcément emboîtés. A titre illustratif, nous proposons des applications empiriques en employons des données journalières de l'indice boursier S&P500. D'abord, nous considérons un modèle de volatilité stochastique basé sur un mélange des lois normale et inverse-Gaussien où la variance conditionnelle est considérée comme un processus stochastique latent généré par la loi inverse-Gaussian. Conditionnellement à la volatilité, la loi des données est une normale. Il en résulte la loi normal inverse Gaussian (NIG) de Barndorff-Nielsen (1997) pour les données qui présente beaucoup de flexibilité pour capter les excès de kurtosis et de skewness. Dans ce modèle la volatilité est traitée de façon similaire aux paramètres du modèle et elle est simulée par l'échantillonneur de Gibbs. Ce modèle s'avère plus performant que les modèles GARCH asymétriques de Ding et al (1993). Par ailleurs, nous proposons les lois NIG de Barndorff-Nielsen (1997) et GH-skew student de de Barndorff-Nielsen et Shepard (2001) comme densités alternatives aux modèles GARCH asymétriques. Formellement, nous considérons deux modèles GARCH asymétriques à la Ding et al (1993), l'un avec une loi NIG et l'autre avec une loi GH-skew student. Dans ce contexte la volatilité est calculée de façon récursive sur la base de données passées. Les résultats sont quelque peu décevants pour la loi GH-skew student, puisque la performance de ce modèle est comparable à celle d'un modèle GARCH asymétrique standard
15

Stratégie de rotation sectorielle fonction des relations de causalité entre les forces économiques et boursières

Walker, David 14 January 2022 (has links)
La compréhension des interactions entre les forces économiques et boursières revêt une importance fondamentale pour les gestionnaires de portefeuille ainsi que pour les autorités monétaires. Les forces économiques exercent une influence sur les valorisations boursières, voir Chen, Roll et Ross (1986). Les taux de croissance des forces économiques et boursières sont interdépendants et leurs covariances dépendent de régimes en commun, voir Guidolin et Ono (2006), Hubrich et Telow (2014). Dans une nouvelle perspective, cette thèse considère que leurs taux de croissance évoluent en fonction de la structure causale des régimes exogènes de tendance haussière et baissière spécifiques à ces forces. Les relations de causalité qui lient leurs régimes sont découvertes par l'apprentissage de la structure et des paramètres d'un réseau bayésien. Une stratégie de rotation sectorielle consiste à moduler dans le temps les poids d'un portefeuille alloués aux secteurs boursiers, voir Chong et Phillips (2015). Le phénomène d'asymétrie de la volatilité de Black (1976) veut qu'une relation négative lie la croissance de la volatilité aux rendements boursiers. Par le biais d'un réseau bayésien, cette thèse exploite le pouvoir prévisionnel qu'exerce les régimes endogènes de volatilité d'indicateurs économique et boursier sur leurs régimes exogènes de tendance courants, connus ex post. Elle soutient qu'il est possible de construire une stratégie de rotation sectorielle profitable en exploitant le phénomène d'asymétrie de volatilité et les relations de causalité entre les forces économiques et boursières dans un problème de construction de portefeuille résolu par optimisation de scénarios. Des preuves de la surperformance d'une stratégie d'investissement active au-delà d'un indice de référence, dans un contexte d'investissement réel hors échantillon de calibration, supportent la thèse formulée. Des contributions secondaires de nature économiques et techniques sont réalisées aux fils des étapes nécessaires à la démonstration de la thèse principale. Différemment de Pagan et Sossounov (2003), un nouvel indicateur de crise et de croissance boursière, exempt de biais sectoriels, est construit à partir des phases exogènes de tendance coïncidentes à des indices de secteurs boursiers. Ces derniers sont communément regroupés en fonction de leur niveau de risque et de sensibilités à l'activité économique et à l'indice global de marché, voir Denoiseux et coll. (2017). Une méthode inédite de regroupement de secteurs est développée à partir de caractéristiques communes à leurs régimes exogènes : ils présentent des profils similaires d'association avec ceux des indicateurs économiques et leurs distributions de rendement par régime exogène disposent de propriétés uniques. La méthode usuelle de détection du phénomène d'asymétrie de la volatilité (PAV) repose sur un coefficient d'asymétrie significatif, lorsqu'intégré dans une expression GARCH de la variance conditionnelle, voir Glosten, Jagannathan et Runkle (1993). Une technique novatrice d'investigation du PAV, adaptée à des données à faible fréquence, est développée à partir de mesures d'association entre les phases endogènes à forte/faible volatilité et exogènes de tendance baissière/haussière. Le régime endogène de volatilité d'un indicateur qui satisfait au PAV constitue un indicateur avancé de son régime exogène de tendance courant. Un nouveau système d'équations est développé de manière à calibrer un modèle autorégressif, dont le terme d'erreur suit une mixture de lois normales, à partir d'un algorithme « Expected Maximization ». Ce modèle est exploité de manière à représenter les spécificités de l'anormalité des taux de croissance segmentés par régime exogène. Les corrélations des actifs se resserrent en période de recul boursier (Login et Solnik (2002)). Un algorithme est construit de manière à évaluer la segmentation optimale des corrélations, entre les taux de croissance de deux variables, parmi les combinaisons d'états de leur régime exogène. Une nouvelle procédure de sélection et de paramétrisation d'un algorithme d'apprentissage de la structure d'un réseau bayésien est développée en fonction des niveaux de risque optimaux des erreurs de type I et II, dans un contexte représentatif du problème. La procédure est utilisée afin de découvrir les liens de causalité entre les régimes de tendance et de volatilité des forces économiques et boursières. L'ensemble de ces outils permettent de modéliser dans une simulation de Monte-Carlo, la dépendance de la densité de probabilité des taux de croissance des indicateurs et de leurs corrélations aux phases exogènes de tendance, régies par un réseau bayésien dynamique.
16

Le conflit indo-pakistanais sur le Cachemire : analyse des décisions et perceptions des autorités politiques et militaires à l'aune des modèles de Graham Allison / Decision making process and perception : cases of India and Pakistan through Kashmir province

Irtan, Carole 13 April 2012 (has links)
La province du Jammu et Cachemire, partagée entre l’Union Indienne et le Pakistan en 1947, est l’une des pommes de discorde qui a engendré une relation très conflictuelle entre les deux voisins, et qui a fait l’objet de crises diplomatiques et militaires récurrentes entre les deux pays, entrecoupées de rounds de négociation n’ayant pas abouti au règlement du conflit.Ce conflit au Cachemire va être passé au crible de deux théories des relations internationales, la théorie de la prise de décision modélisée par Graham Allison et la théorie de la perception développée par Robert Jervis. L’analyse de ce conflit va mettre en évidence la rationalité dans le processus de prise de décision au sein des deux pays, mais cette rationalité est néanmoins soumise à des perceptions de chaque côté de la frontière qui renvoient à la culture, aux mentalités, aux religions de chacun des deux pays. Ces perceptions peuvent amener un analyste occidental à croire à une certaine irrationalité de la part des deux pays. Il n’en est rien, car si l’on se place d’un point de vue indien ou pakistanais, leur mentalité, leur réflexion, leur culture respectives les amènent à une cohérence d’ensemble de chacune de leur politique.Cette analyse du conflit du Cachemire sous un angle particulier présente des limites, au premier rang desquelles la recherche bibliographique, qui mériterait d’être enrichie par des références hindies ou ourdoues. Néanmoins, la littérature en langue anglaise d’auteurs originaires du sous-continent indien autorise à utiliser la théorie de la perception avec une certaine précision et permet ainsi d’affiner l’analyse au plus près de la réalité. / My thesis is pertaining to the political and military relations between India and Pakistan, especially towards the Kashmir province. I decided to focus on Kashmir province because relations of the countries are strifen by a lot of fracture lines in fields like economics, water, defence and so on… The core issue of my thesis is to compare the way of behaving of the two countries towards the Kashmir province and to draw conclusions about this complicated relationship. Moreover, I choose to work on the late 20 years in order to narrow the study, because since 1947 and the partition of British India, 3 disputes have opposed both of them. For the late 20 years, a crisis in 1999 and several rounds of negotiations are the main part of my subject. The issue of my work is related to two political theories, namely the decision making process developed by Graham Allison, and the theory of perception and misperception emphasized in Robert Jervis book. From these two theories, we can deduce that the decision making process in both countries are rational. This rationality can be submitted to criticism. Nevertheless, both countries have taken several decisions towards Kashmir province in accordance with their respective politics. What will be the future for this province? It can be guessed that one day progress will be made towards peace in this part of the world. Keywords: Kashmir; India; Pakistan; Decision Making Process; Perception; Misperception.
17

Le management de l'innovation. Essai de modélisation dans une perspective systémique

ROMON, François 20 November 2003 (has links) (PDF)
Le management de l'innovation est défini ici comme l'ensemble des actions à conduire et des choix à effectuer pour favoriser l'émergence, décider du lancement, et mener à bien les lancements de nouveaux produits ou les mises en place de nouveaux procédés de l'entreprise, pour accroître sa compétitivité.<br />Adoptant une méthode de « recherche intéressée » nous avons pu identifier les questions actuelles de management de l'innovation avec les responsables de grandes entreprises françaises appartenant à des secteurs d'activité variés. Parallèlement, nous avons réalisé des études de cas approfondies dans une douzaine d'entreprises sur trois problématiques essentielles : la représentation des projets d'innovation chez les différents acteurs, le management des portefeuilles de projets d'innovation, et la représentation des besoins du client futur au long du processus d'innovation, mettant au jour plusieurs concepts tels le mandat d'innovation ou l'intensité stratégique de l'innovation.<br />Nous avons ainsi construit une typologie dynamique des projets d'innovation de l'entreprise, et un Modèle Systémique de Management de l'innovation, considéré comme étant le module de décision du système d'innovation de l'entreprise, agissant sur le module opérant (les projets d'innovation eux-mêmes) et utilisant pour se faire les informations fournies par le module d'information du système innovation. Nous montrons alors que c'est par des structures organisationnelles, avec des modes de décisions et avec des outils de gestion spécifiques de management de projets et de management de portefeuilles de projets, que l'entreprise peut espérer se mouvoir sur une deuxième boucle d'apprentissage lui permettant d'innover de façon pertinente et efficiente.<br />La modélisation que nous proposons se situe dans un contexte marqué par l'arrivée massive des technologies numériques dans l'entreprise, nous conduisant au concept de technologies managériales.
18

Traitement des données manquantes dans les données de panel : cas des variables dépendantes dichotomiques

Barhoumi, Mohamed Adel. 11 April 2018 (has links)
Dans ce document, nous examinons la performance de l'estimation par la méthode bayésienne et celle par la méthode de vraisemblance. En premier lieu, on s'intéresse au cas où la base de données est complète pour estimer un modèle dichotomique par l'approche du maximum de vraisemblance et qui sera comparée à l'estimation du modèle par l'approche bayésienne ; dans ce dernier cas, on utilise la méthode d'échantillonnage de Gibbs. En deuxième lieu, on étudie l'impact du mécanisme de données manquantes ainsi que l'étude des cas complets sur l'estimation des paramètres du modèle. En outre, on utilise les modèles MCAR, MAR et NMAR. Nous illustrons ces méthodes d'estimation à l'aide des données simulées, ainsi qu'avec des données réelles portant sur la décision d'emploi ou de travail chez les jeunes.
19

Search and Coverage Path Planning

Morin, Michael 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / Nous abordons deux problèmes différents et complémentaires : le problème du chemin couvrant (ou CPP) et le problème du chemin de recherche optimal (ou OSP). Le CPP est un défi important en robotique mobile alors que l’OSP est un classique de la théorie de la recherche. Nous effectuons d’abord une revue de littérature qui souligne leurs différences et leurs similitudes du point de vue d’une opération de recherche. Le CPP et l’OSP sont comparés par rapport aux données connues sur la position d’un objet de recherche. Ensuite, nous formalisons une généralisation du problème CPP aux détections imparfaites et distantes nommée CPPIED. Nous présentons un algorithme heuristique efficace qui utilise à la fois la programmation dynamique et une réduction au problème du voyageur de commerce (TSP). Nous appliquons l’algorithme dans le contexte des opérations de déminage sous-marin sur des cartes qui contiennent plus de 21 000 cellules. Nous poursuivons par l’étude d’un nouveau modèle de programmation par contraintes (CP) pour l’OSP pour lequel nous proposons une amélioration de la définition de la fonction objectif. Cette nouvelle définition permet un filtrage plus fort des variables de probabilité prodiguant ainsi une amélioration des performances du modèle. Nous proposons, pour l’OSP, une nouvelle heuristique nommée « détection totale » (ou TD). Les résultats expérimentaux démontrent que notre modèle, utilisé avec l’heuristique TD, est compétitif avec des algorithmes de séparation et d’évaluation (ou branch-and-bound) spécifiques au problème de l’OSP (l’approche CP étant plus générale). Cette dernière observation supporte notre assertion que la CP est un bon outil pour résoudre des problèmes de la théorie de la recherche. Finalement, nous proposons la contrainte de transition de Markov (Mtc) en tant que nouvel outil de modélisation pour simplifier l’implémentation de modèles basés sur les chaînes de Markov. Nous démontrons, tant empiriquement que formellement, que l’arithmétique des intervalles est insuffisante pour l’atteinte de la cohérence de bornes, c’est-à-dire, pour filtrer les variables de probabilité de cette contrainte. Or, l’arithmétique des intervalles est l’outil utilisé par les solveurs CP pour filtrer une Mtc lorsque celle-ci est décomposée en contraintes arithmétiques individuelles. Nous proposons donc un algorithme basé sur la programmation linéaire qui atteint la cohérence de bornes. Du fait que la programmation linéaire est coûteuse en temps de calcul pour un solveur CP lorsqu’utilisée à chaque noeud de l’arbre de recherche, nous proposons aussi une approche intermédiaire basée sur le problème du sac à dos fractionnel. L’utilisation des Mtcs est illustrée sur l’OSP. / We tackle two different and complementary problems: the coverage path planning (CPP) and the optimal search path (OSP). The CPP is a main challenge in mobile robotics. The OSP is a classic from search theory. We first present a review of both problems that highlights their differences and their similarities from the point of view of search (coverage) operations. Both problems are positioned on the continuum of the a priori knowledge on the whereabouts of a search object. We then formalize an extension of the CPP we call the CPP with imperfect extended detections (CPPIED). We present a novel and powerful heuristic algorithm that uses dynamic programming and a traveling salesman (TSP) reduction. We apply the method to underwater minesweeping operations on maps with more than 21 thousand cells. We then study a novel constraint programming (CP) model to solve the OSP.We first improve on using the classical objective function found in the OSP definition. Our novel objective function, involving a single modification of the operators used to compute the probability of success of a search plan, leads to a stronger filtering of the probability variables of the model. Then, we propose a novel heuristic for the OSP: the total detection (TD) heuristic. Experiments show that our model, along with the proposed heuristic, is competitive with problem-specific branch-and-bounds supporting the claim that CP is a good technique to solve search theory problems. We finally propose the Markov transition constraint (Mtc) as a novel modeling tool in CP to simplify the implementation of models based on Markov chains. We prove, both empirically and theoretically, that interval arithmetic is insufficient to filter the probability variables of a single Mtc, i.e., to enforce bounds consistency on these variables. Interval arithmetic is the only available tool to filter an Mtc when it is decomposed into individual arithmetic constraints. We thus propose an algorithm based on linear programming which is proved to enforce bounds consistency. Since linear programming is computationally expensive to use at each node of the search tree of a CP solver, we propose an in-between solution based on a fractional knapsack filtering. The Mtc global constraint usage is illustrated on a CP model of the OSP.
20

Apprentissage par renforcement Bayésien de processus décisionnels de Markov partiellement observables : une approche basée sur les processus Gaussiens

Dallaire, Patrick 17 April 2018 (has links)
L'apprentissage par renforcement est une approche d'apprentissage automatique permettant de développer des systèmes s'améliorant à partir d'interactions avec un environnement. Les processus décisionnels de Markov partiellement observables (PDMPO) font partie des modèles mathématiques fréquemment utiliser pour résoudre ce type de problème d'apprentissage. Cependant, la majorité des méthodes de résolution utilisées dans les processus décisionnels de Markov partiellement observables nécessitent la connaissance du modèle. De plus, les recherches actuelles sur le PDMPO se restreignent principalement aux espaces d'états discrets, ce qui complique son application à certains problèmes naturellement modélisés par un espace d'état continu. Ce mémoire présente une vision des PDMPO basée sur les processus Gaussiens, une méthode d'apprentissage supervisée ayant comme propriété particulière d'être une distribution de probabilité dans l'espace des fonctions. Cette propriété est notamment très intéressante du fait qu'elle ouvre la porte à un traitement Bayésien de l'incertitude sur les fonctions inconnues d'un PDMPO continu. Les résultats obtenus avec l'approche d'apprentissage par processus Gaussien montrent qu'il est possible d'opérer dans un environnement tout en identifiant le modèle de ce celui-ci. À partir des conclusions tirées à la suite de nos travaux sur le PDMPO, nous avons observé un certain manque pour ce qui est de l'identification du modèle sous l'incertain. Ainsi, ce mémoire expose aussi un premier pas vers une extension de l'apprentissage de PDMPO continu utilisant des séquences d'états de croyances lors de l'identification du modèle. Plus précisément, nous proposons une méthode de régression par processus Gaussiens utilisant des ensembles d'entraînement incertain pour réaliser l'inférence dans l'espace des fonctions. La méthode proposée est particulièrement intéressante, du fait qu'elle s'applique exactement comme pour le cas des processus Gaussiens classiques et qu'elle n'augmente p±as la complexité de l'apprentissage.

Page generated in 0.3065 seconds