Spelling suggestions: "subject:"théorie dde lla décision"" "subject:"théorie dde laa décision""
11 |
A methodological perspective on behavioral economics and the role of language in economic rationality / L’économie comportementale et le rôle du langage dans la rationalité économique : une perspective méthodologiqueJullien, Dorian 08 June 2016 (has links)
Dans cette thèse, nous proposons une perspective méthodologique sur le double rôle du langage dans la rationalité économique, les utilisations de langage par les économistes pour la théoriser et les utilisations de langage par les agents économiques pour l’exprimer, pour clarifier trois principales questions (et leurs connexions) qui sous-tendent les débats entre économie comportementale et économie standard : le problème de l’unification théorique vis-à-vis des trois dimensions de la rationalité économique, la question de l’interdisciplinarité entre économie et Psychologie, et le problème du positif/normatif dans les modèles de comportements individuels. Concernant le problème du positif/normatif et le rôle du langage dans les comportements des agents économiques, notre intention est de fournir, au-delà de la simple clarification, une critique constructive des contributions de l’économie standard comme de l’économie comportementale. Suivant la position de l’enchevêtrement du philosophe Hilary Putnam et des philosophes-économistes Vivian Walsh et Amartya Sen, il est soutenu que l’économie tant standard que comportementale propose une articulation insatisfaisante des dimensions positive et normative dans les modèles de comportements individuels; et que la reconnaissance de l’enchevêtrement de faits, de valeurs et de conventions peut être théoriquement et empiriquement fructueuse. Prêter attention au rôle du langage dans les comportements des agents économiques montre parfois qu’un comportement apparemment irrationnel peut en fait être défendu comme rationnel; c’est pourquoi nous soutenons que, et montrons comment, l'axiome implicite - connu sous le nom d’invariance à la description - dans les modèles standards de comportements individuels empêchant l’influence du langage doit être affaibli (mais pas complètement supprimé), contrairement aux positions de la plupart des économistes standards et comportementaux. / In this dissertation, we propose a methodological perspective on the twofold role of language in economic rationality, economists’ uses of language to theorize it and economic agent’s uses of language to express it, can clarify three main issues (and their connections), underlying the behavioral versus standard economics debates: the issue of the theoretical unification regarding the three dimensions of economic rationality, the issue of interdisciplinarity between economics and Psychology and the positive/normative issue within models of individual behaviors. Regarding the positive/normative issue and the role of language in the behaviors of economic agents, the intention is to provide a constructive criticism of contributions from behavioral as well as standard economists. Following the entanglement thesis of philosopher Hilary Puntam and philosophers-economists Vivian Walsh and Amartya Sen, it is argued that both standard and behavioral economists propose an unsatisfying articulation between the positive and normative dimensions of models of individual behaviors; and that recognizing the entanglement of facts, values and conventions can actually be theoretically and empirically fruitful. Paying some attention to the role of language in the behaviors of economic agents may sometimes show that a seemingly irrational behavior can in fact be defended as rational; hence we argue that, and show how, the implicit axiom -- known as ‘description invariance’ -- in standard models of individual behaviors preventing the influence of language needs to be weakened (though not dropped entirely), contrary to the positions of most behavioral and standard economists.
|
12 |
Strategic Errors and Leadership: A Theoretical and Empirical ExplorationGiolito, Vincent 08 October 2021 (has links) (PDF)
This thesis is concerned with the relationship between the manager or executive as an individual, and the organization. The theoretical and empirical exploration covers phases of crisis, when organizations approach failure, and more normal times It comprises of two parts that respectively explore: a) strategic errors and failures and their management; and b) forms of leadership that emphasize the development not only of the organization, but also that of the employees, with a particular focus on servant leadership. In each part, a first chapter offers a theoretical development, followed by an empirical study. Contributions in the first part on strategic errors include: a) a novel theorization of organizational failure as an outcome of strategic errors within the overarching theoretical framework of institutional theory; and b) a qualitative study based on content analysis of in-depth of interviews of 30 CEOs and board chairs, including 21 from top European firms in the financial industry employing one million people, that develops error acknowledgment as a key element of the management of strategic errors. Contributions in the second part on leadership include: a) a theoretical re-articulation of six "positive" leadership theories in light of attribution theory, with leader self-awareness, ethics, and integrity coalescing the six theories; and b) a quantitative study showing a positive association from servant leadership to business-unit profit growth, mediated by employee flourishing. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
|
13 |
La corrélation appliquée dans un contexte bayésienLepage, Maude 17 April 2018 (has links)
Bien que largement utilisée, la corrélation n'est pas souvent abordée dans un contexte bayésien. À l'aide de formules simples, on calcule ici la corrélation de Pearson entre un paramètre [thêta] et son estimation bayésienne ou par la méthode du maximum de vraisemblance. Ceci nous permet alors d'examiner le comportement de la corrélation de Pearson selon la taille de l'échantillon et le choix des paramètres de la loi a priori. On compare ensuite son comportement avec celui des corrélations de Spearman, de Kendall et de Blomqvist obtenues à l'aide de simulations effectuées avec le logiciel R. Plusieurs cas sont considérés faisant notamment intervenir des lois conjuguées.
|
14 |
La performance cyclique des outils prévisionnels : le cas de la devise canadienneTremblay, Nicolas 16 April 2018 (has links)
Depuis que Meese et Rogoff [1983] ont publié leur article sur la qualité des outils prévisionnels du taux de change des années 70, découvrir le meilleur type de modèle et la spécification la plus efficace est un sujet prolifique de la littérature en économie internationale. Ce mémoire conduira une comparaison bayesienne des principales modélisations utilisées pour prédire l'évolution du taux de change. La méthodologie mise en oeuvre sera celle proposée par Geweke [1994] qui se nomme l'importance sampling. Une comparaison des densités et des vraisemblances prédictives permettra de déterminer s'il est préférable d'utiliser le vecteur autorégressif ou le modèle à correction d'erreurs pour prédire les réalisations du taux de change lors des divers états de l'économie.
|
15 |
Bayesian analysis of volatility models with semi-heavy tails, skewness and leverage effectsAmedah, Sid Ali 13 April 2018 (has links)
Cette thèse considère des modèles de volatilité où la distribution conditionnelle des données est un cas particulier de la loi "Generalized Hyperbolic" de Barndorff-Nielsen (1977). Ces modèles permettent de capter les principales caractéristiques des séries financières à haute fréquence, à savoir le groupement de volatilité (volatility clustering), l'excès de kurtosis et de skewness ainsi que l'effet de levier qui s'applique au rendements des marchés boursiers. Etant donnée la forme fortement non linéaire de cette densité, nous utilisons l'approche Bayesienne basée sur les méthodes Markov Chain Monte Carlo pour l'estimation et l'inférence Cette approche est relativement simple à mettre en oeuvre et permet une inférence exacte et valable en échantillon fini ainsi que la comparaison de modèles qui ne sont pas forcément emboîtés. A titre illustratif, nous proposons des applications empiriques en employons des données journalières de l'indice boursier S&P500. D'abord, nous considérons un modèle de volatilité stochastique basé sur un mélange des lois normale et inverse-Gaussien où la variance conditionnelle est considérée comme un processus stochastique latent généré par la loi inverse-Gaussian. Conditionnellement à la volatilité, la loi des données est une normale. Il en résulte la loi normal inverse Gaussian (NIG) de Barndorff-Nielsen (1997) pour les données qui présente beaucoup de flexibilité pour capter les excès de kurtosis et de skewness. Dans ce modèle la volatilité est traitée de façon similaire aux paramètres du modèle et elle est simulée par l'échantillonneur de Gibbs. Ce modèle s'avère plus performant que les modèles GARCH asymétriques de Ding et al (1993). Par ailleurs, nous proposons les lois NIG de Barndorff-Nielsen (1997) et GH-skew student de de Barndorff-Nielsen et Shepard (2001) comme densités alternatives aux modèles GARCH asymétriques. Formellement, nous considérons deux modèles GARCH asymétriques à la Ding et al (1993), l'un avec une loi NIG et l'autre avec une loi GH-skew student. Dans ce contexte la volatilité est calculée de façon récursive sur la base de données passées. Les résultats sont quelque peu décevants pour la loi GH-skew student, puisque la performance de ce modèle est comparable à celle d'un modèle GARCH asymétrique standard
|
16 |
A Bayesian approach to Hybrid Choice modelsAlvarez Daziano, Ricardo 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Les modèles microéconométriques de choix discrets ont pour but d’expliquer le processus du choix individuel des consommateurs parmi un ensemble limité et exhaustive d’options mutuellement exclusives. Les modèles dits de choix hybrides sont une généralisation des modèles de choix discrets standard, où des modèles indépendants plus sophistiqués sont considérés simultanément. Dans cette thèse des techniques d’estimation simultanée sont analysées et appliquées pour un modèle de choix hybride qui, sous la forme d’un système complexe d’équations structurelles généralisées, intègre à la fois des choix discrets et des variables latentes en tant que facteurs explicatifs des processus décisionnels. Ce qui motive l’étude de ce genre de modèles est que pour comprendre le processus du choix il faut incorporer des attitudes, des perceptions et des attributs qualitatifs à l’intérieur de modèles décisionnels économiques conventionnels, tout en prenant ce qui dit la recherche en sciences cognitives ainsi qu’en psychologie sociale. Quoique l’estimation du système d’équations d’un modèle de choix hybride requière l’évaluation d’intégrales multidimensionnelles complexes, on résoudre empiriquement ce problème en applicant la méthode du maximum de vraisemblance simulée. Ensuite on dérive une procédure d’échantillonnage de Gibbs pour l’estimation simultanée bayésienne du modèle qui offre des estimateurs convergents et efficaces. Ceci devient une méthode plus avantageuse comparativement aux méthodes classiques dans un cadre analytique avec un grand nombre de variables latentes. En effet, en vertu de l’approche bayésienne il suffit de considérer des régressions ordinaires pour les variables latentes. Par ailleurs, dériver les intervalles de confiance bayésiennes pour les parts de marché ainsi que pour des dispositions à payer devient trivial. De par sa grande géneralité, le modèle de choix hybride est capable de s’adapter à des situations pratiques. En particulier, la réponse des consommateurs suite à l’innovation technologique est analysée. Par exemple, on étudie les préférences pro-environnementales dans un modèle économique des décisions d’achat de véhicules verts selon lequel les consommateurs soucieux de l’environnement sont prêts à payer davantage pour des véhicules à faibles émissions, en dépit des inconvénients potentiels. En outre, en utilisant un noyau probit et des indicateurs dichotomiques on montre que des connaissances préalables ainsi que des attitudes positives envers l’adoption de nouvelles technologies favorisent l’adoption de la téléphonie IP. / Microeconometric discrete choice models aim to explain the process of individual choice by consumers among a mutually exclusive, exhaustive and finite group of alternatives. Hybrid choice models are a generalization of standard discrete choice models where independent expanded models are considered simultaneously. In my dissertation I analyze, implement, and apply simultaneous estimation techniques for a hybrid choice model that, in the form of a complex generalized structural equation model, simultaneously integrates discrete choice and latent explanatory variables, such as attitudes and qualitative attributes. The motivation behind hybrid choice models is that the key to understanding choice comes through incorporating attitudinal and perceptual data to conventional economic models of decision making, taking elements from cognitive science and social psychology. The Bayesian Gibbs sampler I derive for simultaneous estimation of hybrid choice models offers a consistent and efficient estimator that outperforms frequentist full information simulated maximum likelihood. Whereas the frequentist estimator becomes fairly complex in situations with a large choice set of interdependent alternatives with a large number of latent variables, the inclusion of latent variables in the Bayesian approach translates into adding independent ordinary regressions. I also find that when using the Bayesian estimates it is easier to consider behavioral uncertainty; in fact, I show that forecasting and deriving confidence intervals for willingness to pay measures is straightforward. Finally, I confirm the capacity of hybrid choice modeling to adapt to practical situations. In particular, I analyze consumer response to innovation. For instance, I incorporate proenvironmental preferences toward low-emission vehicles into an economic model of purchase behavior where environmentally-conscious consumers are willing to pay more for sustainable solutions despite potential drawbacks. In addition, using a probit kernel and dichotomous effect indicators I show that knowledge as well as a positive attitude toward the adoption of new technologies favor the adoption of IP telephony.
|
17 |
Stratégie de rotation sectorielle fonction des relations de causalité entre les forces économiques et boursièresWalker, David 02 February 2024 (has links)
La compréhension des interactions entre les forces économiques et boursières revêt une importance fondamentale pour les gestionnaires de portefeuille ainsi que pour les autorités monétaires. Les forces économiques exercent une influence sur les valorisations boursières, voir Chen, Roll et Ross (1986). Les taux de croissance des forces économiques et boursières sont interdépendants et leurs covariances dépendent de régimes en commun, voir Guidolin et Ono (2006), Hubrich et Telow (2014). Dans une nouvelle perspective, cette thèse considère que leurs taux de croissance évoluent en fonction de la structure causale des régimes exogènes de tendance haussière et baissière spécifiques à ces forces. Les relations de causalité qui lient leurs régimes sont découvertes par l'apprentissage de la structure et des paramètres d'un réseau bayésien. Une stratégie de rotation sectorielle consiste à moduler dans le temps les poids d'un portefeuille alloués aux secteurs boursiers, voir Chong et Phillips (2015). Le phénomène d'asymétrie de la volatilité de Black (1976) veut qu'une relation négative lie la croissance de la volatilité aux rendements boursiers. Par le biais d'un réseau bayésien, cette thèse exploite le pouvoir prévisionnel qu'exerce les régimes endogènes de volatilité d'indicateurs économique et boursier sur leurs régimes exogènes de tendance courants, connus ex post. Elle soutient qu'il est possible de construire une stratégie de rotation sectorielle profitable en exploitant le phénomène d'asymétrie de volatilité et les relations de causalité entre les forces économiques et boursières dans un problème de construction de portefeuille résolu par optimisation de scénarios. Des preuves de la surperformance d'une stratégie d'investissement active au-delà d'un indice de référence, dans un contexte d'investissement réel hors échantillon de calibration, supportent la thèse formulée. Des contributions secondaires de nature économiques et techniques sont réalisées aux fils des étapes nécessaires à la démonstration de la thèse principale. Différemment de Pagan et Sossounov (2003), un nouvel indicateur de crise et de croissance boursière, exempt de biais sectoriels, est construit à partir des phases exogènes de tendance coïncidentes à des indices de secteurs boursiers. Ces derniers sont communément regroupés en fonction de leur niveau de risque et de sensibilités à l'activité économique et à l'indice global de marché, voir Denoiseux et coll. (2017). Une méthode inédite de regroupement de secteurs est développée à partir de caractéristiques communes à leurs régimes exogènes : ils présentent des profils similaires d'association avec ceux des indicateurs économiques et leurs distributions de rendement par régime exogène disposent de propriétés uniques. La méthode usuelle de détection du phénomène d'asymétrie de la volatilité (PAV) repose sur un coefficient d'asymétrie significatif, lorsqu'intégré dans une expression GARCH de la variance conditionnelle, voir Glosten, Jagannathan et Runkle (1993). Une technique novatrice d'investigation du PAV, adaptée à des données à faible fréquence, est développée à partir de mesures d'association entre les phases endogènes à forte/faible volatilité et exogènes de tendance baissière/haussière. Le régime endogène de volatilité d'un indicateur qui satisfait au PAV constitue un indicateur avancé de son régime exogène de tendance courant. Un nouveau système d'équations est développé de manière à calibrer un modèle autorégressif, dont le terme d'erreur suit une mixture de lois normales, à partir d'un algorithme « Expected Maximization ». Ce modèle est exploité de manière à représenter les spécificités de l'anormalité des taux de croissance segmentés par régime exogène. Les corrélations des actifs se resserrent en période de recul boursier (Login et Solnik (2002)). Un algorithme est construit de manière à évaluer la segmentation optimale des corrélations, entre les taux de croissance de deux variables, parmi les combinaisons d'états de leur régime exogène. Une nouvelle procédure de sélection et de paramétrisation d'un algorithme d'apprentissage de la structure d'un réseau bayésien est développée en fonction des niveaux de risque optimaux des erreurs de type I et II, dans un contexte représentatif du problème. La procédure est utilisée afin de découvrir les liens de causalité entre les régimes de tendance et de volatilité des forces économiques et boursières. L'ensemble de ces outils permettent de modéliser dans une simulation de Monte-Carlo, la dépendance de la densité de probabilité des taux de croissance des indicateurs et de leurs corrélations aux phases exogènes de tendance, régies par un réseau bayésien dynamique.
|
18 |
Développement d'une méthode d'analyse bayésienne simultanée et multiparamétrique des spectres stellaires et son application aux spectres d'étoiles massivesMugnes, Jean-Michel 12 September 2024 (has links)
Je présente, dans cette thèse, une nouvelle méthode d’analyse des spectres stellaires, basée sur la statistique bayésienne et l’utilisation de modèles atmosphériques, que j’applique à l’étude d’un échantillon d’étoiles de type B. L’originalité de cette méthode réside dans l’analyse simultanée d’un grand nombre de raies spectrales, mais aussi dans la détermination, également simultanée, d’un nombre important de paramètres stellaires, ainsi que dans le calcul automatique d’incertitudes incluant les variations possibles de chacun des paramètres, la qualité des données et, dans une certaine mesure, les limitations du modèle théorique employé. Les principaux avantages d’une telle méthode sont l’homogénéité de ses résultats, sa robustesse face au bruit, son efficacité même à faible résolution spectrale, sa polyvalence (car elle est applicable à tous types d’étoiles et de modèles), sa simplicité d’utilisation (la méthode est largement automatisée), et sa relative rapidité d’exécution (selon le nombre de paramètres ajustés, l’analyse d’une étoile prend entre 20 secondes et 5 minutes avec un ordinateur moderne). Dans ce document, j’illustre, au travers de nombreux tests théoriques et statistiques, les performances et les capacités, mais aussi les limitations et les biais possibles de cette méthode. La comparaison des résultats que j’obtiens pour mon échantillon d’étoiles B, avec ceux d’autres groupes de recherche, est plutôt satisfaisante et me permet de mettre en avant certains défauts des méthodes traditionnelles d’analyse, mais aussi de relever deux problèmes importants propres au modèle d’atmosphère (TLUSTY) que j’utilise. Puis, avec les paramètres obtenus, je détermine l’âge, la masse et les distances des étoiles de mon échantillon, donne une estimation inédite de l’âge et de la distance de deux amas ouverts, et confirme la différence de vitesses de rotation qui existe entre les étoiles du champ et des amas. La comparaison de mes distances avec les données HIPPARCOS et les mesures d’extinction des deux amas révèle également un accord satisfaisant. Enfin, je propose des pistes d’amélioration de ma méthode et donne un exemple d’utilisation plus générale et plus en adéquation avec les observations multiobjets ou à grande échelle qui se poursuivent à l’heure actuelle. / I present, in this thesis, a new stellar spectra analysis method, based on bayesian statistics and theoretical atmopheric models, which I apply to a sample of B type stars. The originality of this method lies in the simultaneous analysis of a large number of spectral lines combined with the simultaneous determination of a large number of stellar parameters, as well as in the automatic calculation of the uncertainties. These uncertainties are linked to the possible variations of each parameter, the data quality and, to some extent, to the limitations of the theoretical model used. The main advantages of this method are the homogeneity of its results, its robustness to noise, its effectiveness even at low spectral resolution, its versatility (as it is applicable to all types of star), its ease of use (the method is largely automated), and its relatively fast execution (depending on the number of adjusted parameters, the analysis of a star takes between 20 seconds and 5 minutes with a modern computer). I show, through numerous theoretical and statistical tests, the performance and the capabilities, but also the limitations and the possible bias of this method. The comparison of the results I get for my sample of B stars, with the results from other research groups, is quite satisfactory. This comparaison also allows me to highlight some of the shortcomings of traditional analytical methods, and to address two significant issues specific to the atmosphere model that I use (TLUSTY). Next, with the parameters obtained, I determine the age, mass, and distances of my sample stars, give for the first time an estimate of the age and distance of two open clusters, and confirms the difference in rotational velocity between field and cluster stars. The comparison of my distances with the HIPPARCOS data and the published extinctions of the two clusters reveals a satisfactory agreement. Finally, I propose ways to improve my method and provide an example of a more general application in relation with modern large scale or multi-object surveys.
|
19 |
Bayesian nonparametric latent variable modelsDallaire, Patrick 16 December 2024 (has links)
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire. / One of the important problems in machine learning is determining the complexity of the model to learn. Too much complexity leads to overfitting, which finds structures that do not actually exist in the data, while too low complexity leads to underfitting, which means that the expressiveness of the model is insufficient to capture all the structures present in the data. For some probabilistic models, the complexity depends on the introduction of one or more latent variables whose role is to explain the generative process of the data. There are various approaches to identify the appropriate number of latent variables of a model. This thesis covers various Bayesian nonparametric methods capable of determining the number of latent variables to be used and their dimensionality. The popularization of Bayesian nonparametric statistics in the machine learning community is fairly recent. Their main attraction is the fact that they offer highly flexible models and their complexity scales appropriately with the amount of available data. In recent years, research on Bayesian nonparametric learning methods have focused on three main aspects: the construction of new models, the development of inference algorithms and new applications. This thesis presents our contributions to these three topics of research in the context of learning latent variables models. Firstly, we introduce the Pitman-Yor process mixture of Gaussians, a model for learning infinite mixtures of Gaussians. We also present an inference algorithm to discover the latent components of the model and we evaluate it on two practical robotics applications. Our results demonstrate that the proposed approach outperforms, both in performance and flexibility, the traditional learning approaches. Secondly, we propose the extended cascading Indian buffet process, a Bayesian nonparametric probability distribution on the space of directed acyclic graphs. In the context of Bayesian networks, this prior is used to identify the presence of latent variables and the network structure among them. A Markov Chain Monte Carlo inference algorithm is presented and evaluated on structure identification problems and as well as density estimation problems. Lastly, we propose the Indian chefs process, a model more general than the extended cascading Indian buffet process for learning graphs and orders. The advantage of the new model is that it accepts connections among observable variables and it takes into account the order of the variables. We also present a reversible jump Markov Chain Monte Carlo inference algorithm which jointly learns graphs and orders. Experiments are conducted on density estimation problems and testing independence hypotheses. This model is the first Bayesian nonparametric model capable of learning Bayesian learning networks with completely arbitrary graph structures.
|
20 |
Le processus d'évaluation des probabilités subjectivesBrouillette, Marc-Antoine 23 April 2018 (has links)
Ellsberg (1961) a été l’un des premier à démontrer que les prises de décision en ambiguïté sont mal comprises. Le manque d’informations sur les probabilités des résultats possibles affecte le comportement des individus. Dans ce genre d’environnement, certains individus ont recourt à des heuristiques afin d’évaluer les probabilités de manière subjective. Nous proposons donc un modèle empirique exprimant le processus d’évaluation et de mises à jours des croyances basé sur le théorème de Bayes. À l’aide de données expérimentales, nous avons pu estimer le modèle et ainsi dégager certains types de comportement. Nous avons, entre autre, découvert que le niveau d’ambiguïté liées aux probabilités avait un effet sur le processus d’évaluation des probabilités subjectives. Enfin, selon nos résultats, seulement 10 % des participants se sont comportés comme le prédirait la règle de Bayes, dont plusieurs autres études prennent pour acquis.
|
Page generated in 0.0892 seconds