• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 9
  • 1
  • Tagged with
  • 41
  • 41
  • 16
  • 13
  • 12
  • 11
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Oracle-based algorithms for optimizing sophisticated decision criteria in sequential, robust and fair decision problems / Algorithmes à base d'oracles pour optimiser des critères décisionnels sophistiqués pour les problèmes de décision séquentielle, robuste et équitable

Gilbert, Hugo 11 December 2017 (has links)
Cette thèse s'inscrit dans le cadre de la théorie de la décision algorithmique, qui est une discipline au croisement de la théorie de la décision, la recherche opérationnelle et l'intelligence artificielle. Dans cette thèse, nous étudions l'utilisation de plusieurs modèles décisionnels pour résoudre des problèmes de décision séquentielle dans l'incertain, d'optimisation robuste, et d'optimisation multi-agents équitable. Pour résoudre efficacement ces problèmes, nous utilisons des méthodes de type maître-esclaves, dites à base d'oracles dans la thèse. Ces méthodes permettent de résoudre des problèmes de grande taille en procédant de manière incrémentale. Une attention particulière est portée au modèle de l'espérance d'utilité antisymétrique et bilinéaire, au modèle de l'espérance d'utilité pondérée et à leurs pendants en décision multicritère. L'intérêt de ces modèles est multiple. En effet, ils étendent les modèles standards (e.g., modèle de l'espérance d'utilité) et permettent de représenter un spectre étendu de préférences tout en conservant leurs bonnes propriétés théoriques et algorithmiques. La thèse apporte des réponses sur des aspects théoriques (e.g., résultats de complexité algorithmique) et sur des aspects opérationnels (e.g., conception de méthodes de résolution efficaces) aux problèmes soulevés par l'emploi de ces critères dans les contextes susmentionnés. / This thesis falls within the area of algorithmic decision theory, which is at the crossroads between decision theory, operational research and artificial intelligence. In this thesis, we study several decision models to solve problems in different domains: sequential decision problems under risk, robust optimization problems, and fair multi-agent optimization problems. To solve these problems efficiently, we use master-slave algorithms which solve the problem through an incremental process. These procedures, referred to as oracle methods in the thesis, make it possible to solve problems of large size. A particular attention is given to the skew-symmetric bilinear utility model, the weighted expected utility model and their counterparts in multicriteria decision making. These models are interesting at several respects. They extend the standard models (e.g., the expected utility model) and allow to represent a broader class of preferences while retaining their good theoretical and algorithmic properties. The thesis focuses both on theoretic (e.g., complexity results) and operational (e.g., design of practically efficient solution methods) aspects of the problems raised by the use of these criteria in the domains aforementioned.
32

Essays on time series forecasting with neural-network or long-dependence autoregressive models and macroeconomic news effects on bond yields

Nongni Donfack, Morvan 13 December 2023 (has links)
Cette thèse, organisée en trois chapitres, porte sur la modélisation et la prévision des séries chronologiques économiques et financières. Les deux premiers chapitres proposent de nouveaux modèles économétriques pour l'analyse des données économiques et financières en relaxant certaines hypothèses irréalistes habituellement faites dans la littérature. Le chapitre 1 développe un nouveau modèle de volatilité appelé TVP[indice ANN]-GARCH. Ce modèle offre une dynamique riche pour modéliser les données financières en considérant une structure GARCH (Generalized autoregressive conditional heteroscedasticity) dans laquelle les paramètres varient dans le temps selon un réseau de neurones artificiels (ANN). L'utilisation des ANNs permet de résoudre le problème de l'évaluation de la vraisemblance (présent dans les modèles à paramètres variables dans le temps (TVP)) et permet également l'utilisation de variables explicatives supplémentaires. Le chapitre développe également un algorithme Monte Carlo séquentiel (SMC) original et efficace pour estimer le modèle. Une application empirique montre que le modèle se compare favorablement aux processus de volatilité populaires en termes de prévisions de court et de long terme. L'approche peut facilement être étendue à tout modèle à paramètres fixes. Le chapitre 2 développe trois polynômes de retard autorégressifs (AR) parcimonieux qui génèrent des fonctions d'autocorrélation à décroissance lente, comme on l'observe généralement dans les séries chronologiques financières et économiques. La dynamique des polynômes de retard est similaire à celle de deux processus très performants, à savoir le modèle MSM (Multifractal Markov-Switching) et le modèle FHMV (Factorial Hidden Markov Volatility). Ils sont très flexibles car ils peuvent être appliqués à de nombreux modèles populaires tels que les processus ARMA, GARCH et de volatilité stochastique. Une analyse empirique met en évidence l'utilité des polynômes de retard pour la prévision de la moyenne conditionnelle et de la volatilité. Ils devraient être considérés comme des modèles de prévision alternatifs pour les séries chronologiques économiques et financières. Le dernier chapitre s'appuie sur une approche de régression prédictive en deux étapes pour identifier l'impact des nouvelles macroéconomiques américaines sur les rendements obligataires de trois petites économies ouvertes (Canada, Royaume-Uni et Suède). Nos résultats suggèrent que les nouvelles macroéconomiques américaines sont significativement plus importantes pour expliquer la dynamique de la courbe des taux dans les petites économies ouvertes (PEO) que les nouvelles nationales elles-mêmes. Les nouvelles relatives à la politique monétaire américaine ne sont pas les seuls facteurs importants des variations des rendements obligataires des PEO, mais les nouvelles relatives au cycle économique jouent également un rôle significatif. / This thesis, organized in three chapters, focuses on modelling and forecasting economic and financial time series. The first two chapters propose new econometric models for analysing economic and financial data by relaxing unrealistic assumptions usually made in the literature. Chapter 1 develops a new volatility model named TVP[subscript ANN]-GARCH. The model offers rich dynamics to model financial data by allowing for a generalized autoregressive conditional heteroscedasticity (GARCH) structure in which parameters vary over time according to an artificial neural network (ANN). The use of ANNs for parameters dynamics is a valuable contribution as it helps to deal with the problem of likelihood evaluation (exhibited in time-varying parameters (TVP) models). It also allows for the use of additional explanatory variables. The chapter develops an original and efficient Sequential Monte Carlo sampler (SMC) to estimate the model. An empirical application shows that the model favourably compares to popular volatility processes in terms of out-of sample fit. The approach can easily be extended to any fixed-parameters model. Chapter 2 develops three parsimonious autoregressive (AR) lag polynomials that generate slowly decaying autocorrelation functions as generally observed financial and economic time series. The dynamics of the lag polynomials are similar to that of two well performing processes, namely the Markov-Switching Multifractal (MSM) and the Factorial Hidden Markov Volatility (FHMV) models. They are very flexible as they can be applied in many popular models such as ARMA, GARCH, and stochastic volatility processes. An empirical analysis highlights the usefulness of the lag polynomials for conditional mean and volatility forecasting. They could be considered as forecasting alternatives for economic and financial time series. The last chapter relies on a two steps predictive regression approach to identify the impact of US macroeconomic releases on three small open economies (Canada, United Kingdom, and Sweden) bond yields at high and low frequencies. Our findings suggest that US macro news are significantly more important in explaining yield curve dynamics in small open economies (SOEs) than domestic news itself. Not only US monetary policy news are important drivers of SOEs bond yield changes, but business cycle news also play a significant role.
33

Estimation bayesienne d'un modèle de volatilité stochastique et application au risque de taux d'intérêt

Cloutier, Jean 18 April 2018 (has links)
La modélisation de la volatilité des actifs financiers s'est avérée un sujet très populaire depuis plusieurs années. La performance accrue des ordinateurs a permis d'appliquer les méthodes bayésiennes à l'estimation de ces modèles. Ce mémoire traite de l'estimation bayesienne des modèles d'un modèle de volatilité stochastique dans ses versions univariées et multivariées. L'estimation se fait par un algorithme MCMC via la technique de l'augmentation des données. Par la suite, une application au calcul de la valeur-à-risque sur un titre à revenus fixes est démontrée.
34

Incertitude, causalité et décision : Le cas des risques sociaux et du risque nucléaire en particulier / Uncertainty, causality and decision : The case of social risks and nuclear risk in particular

Lahidji, Reza 29 February 2012 (has links)
La probabilité et la causalité sont deux outils indispensables à la prise en compte des situations de risque social. Lesrelations causales sont le fondement des représentations à partir desquelles on peut évaluer le risque et concevoirdes actions de prévention, de mitigation ou d’indemnisation. La probabilité permet de quantifier cette évaluation et de calibrer ces actions. Dès lors, il semble non seulement naturel, mais nécessaire d’expliciter la place de la causalité et de la probabilité dans la définition d’un problème de décision en situation de risque social. C’est l’objet de cette thèse.Un tour d’horizon de la terminologie du risque et des logiques d’intervention publique dans différentes catégories de risque social nous permettent de mieux comprendre la notion et les problèmes soulevés par sa représentation. Nous approfondissons notre analyse dans le cas de la sûreté nucléaire, en examinant en détail les méthodes et doctrinesdéveloppées dans ce domaine et leur évolution au cours du temps, ce qui nous conduit à formuler différentesobservations au sujet des évaluations de risque et de sûreté.En généralisant la notion d’intervention dans les réseaux bayésiens, nous développons une forme de réseau bayésien causal qui répond à nos besoins. Nous parvenons, par son biais, à une définition du risque qui semble pertinente pour un grand nombre de situations. Nous proposons ensuite des applications simples de ce modèle à certains aspects de l’accident de Fukushima et d’autres problèmes de sûreté nucléaire. Outre certains enseignements spécifiques, ceci nous amène à souligner la nécessité d’une démarche systématique d’identification des incertitudes dans ce domaine.Étendu en direction de la théorie de la décision, notre outil débouche naturellement sur un modèle de décision dynamique dans lequel les actes causent les conséquences et sont causalement liés entre eux. Il apporte en outre une interprétation causale au cadre conceptuel de Savage et permet d’en résoudre certains paradoxes et clarifier certains aspects. Il conduit enfin à envisager la question de l’ambigüité comme incertitude concernant la structure causale d’un problème de décision, ce qui correspond à une vision courante du principe de précaution. / Probability and causality are two indispensable tools for addressing situations of social risk. Causal relations are the foundation for building risk assessment models and identifying risk prevention, mitigation and compensation measures. Probability enables us to quantify risk assessments and to calibrate intervention measures. It therefore seems not only natural, but also necessary to make the role of causality and probability explicit in the definition of decision problems in situations of social risk. Such is the aim of this thesis.By reviewing the terminology of risk and the logic of public interventions in various fields of social risk, we gain a better understanding of the notion and of the issues that one faces when trying to model it. We further elaborate our analysis in the case of nuclear safety, examining in detail how methods and policies have been developed in this field and how they have evolved through time. This leads to a number of observations concerning risk and safety assessments.Generalising the concept of intervention in a Bayesian network allows us to develop a variety of causal Bayesian networks adapted to our needs. In this framework, we propose a definition of risk which seems to be relevant for a broad range of issues. We then offer simple applications of our model to specific aspects of the Fukushima accident and other nuclear safety problems. In addition to specific lessons, the analysis leads to the conclusion that a systematic approach for identifying uncertainties is needed in this area.When applied to decision theory, our tool evolves into a dynamic decision model in which acts cause consequencesand are causally interconnected. The model provides a causal interpretation of Savage’s conceptual framework, solves some of its paradoxes and clarifies certain aspects. It leads us to considering uncertainty with regard to a problem’s causal structure as the source of ambiguity in decision-making, an interpretation which corresponds to a common understanding of the precautionary principle.
35

La diversité des structures de rationalité en microéconomie / The diversity of rational patterns in microeconomics

Lambert, Aude 16 November 2016 (has links)
La microéconomie conventionnelle présente le concept de rationalité de manière univoque et étroite comme maximisation de l'utilité espérée. On sait les critiques qui ont été adressées à ce concept tant du point de vue de l'économie comportementale que de celui de la sociologie. Notre objectif est de proposer une lecture de certaines de ces critiques afin de montrer que, pour l'essentiel, elles mettent en évidence la diversité des modes de rationalité. Le problème est, dès lors, de savoir si le constat de cette diversité conduit nécessairement à la récusation du modèle standard. Cette thèse s'inscrit dans la double perspective de la théorie du choix rationnel et de la théorie des jeux. À partir des critiques de l'économie comportementale, nous soutenons que le principe de maximisation constitue un mode de raisonnement local et évaluable au regard du contexte d'action. Mais une telle régionalisation implique une profonde révision de la théorie des jeux standard. La récusation de l'équilibre général, fondé sur le présupposé de la maximisation de l'utilité espérée, comme modèle univoque appelle un nouveau type de formalisation. En ce sens, nous montrons que la modélisation multi-agents permet de penser, de manière contrefactuelle, des interactions entre agents économiques rationnels et situés. Cette méthode nous autorise ainsi à élaborer des scénarios rationalisants qui dessinent des mondes possibles sans trancher entre ces mondes. / Standard microeconomics displays the concept of rationality as the maximisation of expected utility i.e. in a narrow and unequivocal sense. The criticisms against this concept made by behavioural economics or sociology are well known. I aim at providing an analysis of some of them in order to emphasise the fact that they mainly highlight the diversity of reasoning modes. But the issue is to know whether the diversity of reasoning modes necessarily leads to reject the standard model. My intention falls into two fields : the theory of Rational Choice and the Game Theory. From the point of view of behavioural economics, I assume that the maximisation is nothing more than a local reasoning mode that can be assessed in relation to the context of action. But this assumption implies correcting the standard Game Theory as well. The fact that the general equilibrium, based on the maximisation of expected utility, cannot be used anymore as an unique model calls a new kind of formalisation. So, I point out that agent-based modelling allows us to conceive, in a counterfactual way, interactions between rational economic agents in their context. Therefore, in this respect, rational patterns of actions and interactions design possible worlds without having to choose between them.
36

Aide à la décision pour la conservation des populations de saumon atlantique (Salmo salar L.) / Decision making for the conservation of atlantic salmon populations (Salmo salar L.)

Brun, Mélanie 16 December 2011 (has links)
La gestion durable des ressources naturelles vivantes est un problème majeur dans un contexte de raréfaction, dû à l'impact de l'homme et à une incertitude omniprésente. Améliorer les outils existant et en développer de nouveaux pour conseiller les gestionnaires sur l'évolution potentielle des ressources naturelles vivantes, selon divers scénarios environnementaux et de gestion, est nécessaire. Cette thèse a pour but de contribuer au développement d'une méthodologie pour l'aide à la décision pour la gestion des ressources naturelles vivantes, tout en prenant en compte les sources d'incertitude majeures. Ce travail est appliqué au cas de la population de saumon atlantique (Salmo salar L.) de la Nivelle (France). Cette population fait l'objet d'un programme de suivi à long terme et cette espèce a été largement étudiée. Cette dernière est menacée mais elle est toujours ciblée par la pêche commerciale et récréative. Elle illustre la dualité entre conservation et exploitation, qui est au coeur de la gestion des ressources naturelles vivantes. Pour gérer une population, il est nécessaire de comprendre sa dynamique et de prédire son évolution sous divers scénarios environnementaux et de gestion. L'approche Bayésienne fournit un cadre cohérent pour quantifier l'incertitude sous ses différentes formes. Les modèles hiérarchiques permettent l'assimilation de sources de données multiples et de faire des inférences et des prédictions sur des grandeurs spatio-temporelles inconnues. Un modèle stochastique d'état Bayésien, i.e. un modèle hiérarchique Bayésien dynamique, est construit pour étudier la dynamique de la population d'intérêt et pour prédire son évolution. La théorie de la décision en univers incertain fournit un cadre pour aider un individu dans ses choix, mais son application reste difficile. En théorie, une fonction d'utilité qui dépend des conséquences des alternatives de gestion reflète les préférences d'un individu unique impliqué dans un problème décisionnel. En pratique, sa construction est malaisée. Premièrement, il estdifficile de définir une valeur pour chaque conséquence. Deuxièmement, il y a généralement plus d'un individu impliqué dans le problème décisionnel. Par conséquent, on obtient une classe de fonctions d'utilité. De par les différents intérêts, souvent conflictuels, que les gestionnaires ont à prendre en compte, la fonction d'utilité est multi variée. Dans cette thèse, une classe de fonctions d'utilité bi-variées est construite. Elle prend en compte l'incertitude concernant la fonction, les variations de préférence entre les acteurs et la dualité d'intérêts exploitation vs conservation. Ensuite, une analyse de la robustesse est réalisée pour étudier si la décision optimale, i.e. l'utilité espérée maximale, varie lorsque la fonction d'utilité varie.La méthodologie développée dans cette thèse s'est avérée possible et fructueuse. Elle fournit un cadre cohérent pour organiser les interactions entre scientifiques, acteurs et gestionnaires pour atteindre une compréhension commune des problèmes de décision dans la gestion des ressources naturelles vivantes. En reconnaissant explicitement la diversité des acteurs, elle permet d'identifier des conflits potentiels et de guider les gestionnaires vers des compromis acceptables. Cependant, elle demande un haut niveau de formation et d'expertise en modélisation et en calcul. Elle implique également un temps d'analyse important. Comment rendre ces exigences compatibles avec le niveau actuel d'expertise et les agendas à court terme des structures de gestion est un challenge principal pour le futur. / The sustainable management of natural living resources is a major issue in a context of increasing scarcity due to human impact and of pervasive uncertainty. Improving existing tools and developing new ones to advise decision makers on the potential evolution of natural living resources, according to various management and environmental scenarios, is requested. This PhD aims at contributing to the development of a methodology for decision making for natural living resources management, while taking into account major sources of uncertainty. This is achieved through the study case of the Atlantic salmon (Salmo salar L.) population ofthe Nivelle River (France). This population is subjected to a long term monitoring program and the species has been extensively studied. Atlantic salmon is a threatened species but still targeted by commercial and recreational fisheries. It illustrates the duality between conservation and exploitation which is at the heart of natural living resource management. To manage a population, it is necessary to understand its dynamics and to predict its evolution under various management and environmental scenarios. The Bayesian approach provides a coherent framework to quantify uncertainty in its different forms. Hierarchical models allow the assimilation of multiple sources of data and to make spatio-temporal inferences and predictions. A Bayesian state space model, i.e. a Bayesian dynamic hierarchical model, is constructed to study the dynamics of the population of interest and topredict its evolution. The decision theory under uncertainty provides a framework to help an individual in its choices, but its application still raises difficulties. In theory, a utility function depending on the consequences of alternative actions reflects the preferences of a single individual involved in a decision problem. In practice, its construction is challenging. Firstly, it is difficult to assign a value for each consequence. Secondly, there is usually more than one individual involved in the decision problem. Consequently, we obtain a set of utility functions. Due to the various and often conflicting interests the decision maker has to take into account, the utility function is multivariate. In this PhD, a set of bivariate utility functions is constructed. It accounts for the uncertainty about the function, the variation of preferences among stakeholders and the dual interests of exploitation vs conservation. Next, a robustness analysis is performed to study if the optimal decision, i.e. associated to the maximum expected utility, varies when the utility function varies. The methodology developed in this PhD proved practicable and fruitful. It provides a coherent framework for organizing the interactions between scientists, stakeholders and decision makers for reaching a common understanding of decision problems in the management of natural living resources. By acknowledging explicitly the diversity among stakeholders, it allows to identify potential conflict and it helps guiding decision makers towards acceptable trade-off actions. However, it requires a high level of training and expertise in modelling and computation. It involves also thoughtful and time consuming analyses. How to render these requirements compatible with the current level of expertise and the short term agendas of management bodies is a main challenge for the near future.
37

Analyse du potentiel migratoire de cellules cancéreuses par prétraitement, segmentation et classification d'images

Syed, Tahir Qasim 13 December 2011 (has links) (PDF)
Ce travail de thèse s'insère dans un projet de recherche plus global dont l'objectif est d'analyser le potentiel migratoire de cellules cancéreuses. Dans le cadre de ce doctorat, on s'intéresse à l'utilisation du traitement des images pour dénombrer et classifier les cellules présentes dans une image acquise via un microscope. Les partenaires biologistes de ce projet étudient l'influence de l'environnement sur le comportement migratoire de cellules cancéreuses à partir de cultures cellulaires pratiqu ées sur différentes lignées de cellules cancéreuses. Le traitement d'images biologiques a déjà donné lieu à un nombre important de publications mais, dans le cas abordé ici et dans la mesure où le protocole d'acquisition des images acquises n'était pas figé, le défi a été de proposer une chaîne de traitements adaptatifs ne contraignant pas les biologistes dans leurs travaux de recherche. Quatre étapes sont détaillées dans ce mémoire. La première porte sur la définition des prétraitements permettant d'homogénéiser les conditions d'acquisition. Le choix d'exploiter l'image des écarts-type plutôt que la luminosité est un des résultats issus de cette première partie. La deuxième étape consiste à compter le nombre de cellules présentent dans l'image. Un filtre original, nommé filtre "halo", permettant de renforcer le centre des cellules afin d'en faciliter leur comptage, a été proposé. Une étape de validation statistique de ces centres permet de fiabiliser le résultat obtenu. L'étape de segmentation des images, sans conteste la plus difficile, constitue la troisième partie de ce travail. Il s'agit ici d'extraire des "vignettes", contenant une seule cellule. Le choix de l'algorithme de segmentation a été celui de la "Ligne de Partage des Eaux", mais il a fallu adapter cet algorithme au contexte des images faisant l'objet de cette étude. La proposition d'utiliser une carte de probabilités comme données d'entrée a permis d'obtenir une segmentation au plus près des bords des cellules. Par contre cette méthode entraine une sur-segmentation qu'il faut réduire afin de tendre vers l'objectif : "une région = une cellule". Pour cela un algorithme utilisant un concept de hiérarchie cumulative basée morphologie mathématique a été développé. Il permet d'agréger des régions voisines en travaillant sur une représentation arborescente de ces régions et de leur niveau associé. La comparaison des résultats iii obtenus par cette méthode à ceux proposés par d'autres approches permettant de limiter la sur-segmentation a permis de prouver l'efficacité de l'approche proposée. L'étape ultime de ce travail consiste dans la classification des cellules. Trois classes ont été définies : cellules allongées (migration mésenchymateuse), cellules rondes "blebbantes" (migration amiboïde) et cellules rondes "lisses" (stade intermédiaire du mode de migration). Sur chaque vignette obtenue à la fin de l'étape de segmentation, des caractéristiques de luminosité, morphologiques et texturales ont été calculées. Une première analyse de ces caractéristiques a permis d'élaborer une stratégie de classification, à savoir séparer dans un premier temps les cellules rondes des cellules allongées, puis séparer les cellules rondes "lisses" des "blebbantes". Pour cela on divise les paramètres en deux jeux qui vont être utilisés successivement dans ces deux étapes de classification. Plusieurs algorithmes de classification ont été testés pour retenir, au final, l'utilisation de deux réseaux de neurones permettant d'obtenir plus de 80% de bonne classification entre cellules longues et cellules rondes, et près de 90% de bonne classification entre cellules rondes "lisses" et "blebbantes".
38

Autour de la décision qualitative en théorie des possibilités / On the qualitative decision in a possibility theory framework

Sid-Amar, Ismahane 20 September 2015 (has links)
Dans de nombreuses applications réelles, nous sommes souvent confrontés à des problèmes de décision: de choisir des actions et de renoncer à d'autres. Les problèmes de décision deviennent complexes lorsque les connaissances disponibles sont entachées d'incertitude ou lorsque le choix établi présente un risque.L'un des principaux domaines de l'Intelligence Artificielle (IA) consiste à représenter les connaissances, à les modéliser et à raisonner sur celles-ci. Dans cette thèse, nous sommes intéressés à une discipline inhérente à l'IA portant sur les problèmes de décision. La théorie de la décision possibiliste qualitative a élaboré plusieurs critères, selon le comportement de l'agent, permettant de l'aider à faire le bon choix tout en maximisant l'un de ces critères. Dans ce contexte, la théorie des possibilités offre d'une part un cadre simple et naturel pour représenter l'incertitude et d'autre part, elle permet d'exprimer les connaissances d'une manière compacte à base de modèles logiques ou de modèles graphiques. Nous proposons dans cette thèse d'étudier la représentation et la résolution des problèmes de la décision qualitative en utilisant la théorie des possibilités. Des contreparties possibilistes des approches standards ont été proposées et chaque approche a pour objectif d'améliorer le temps de calcul des décisions optimales et d'apporter plus d'expressivité à la forme de représentation du problème. Dans le cadre logique, nous avons proposé une nouvelle méthode, pour résoudre un problème de la décision qualitative modélisé par des bases logiques possibilistes, basée sur la fusion syntaxique possibiliste. Par la suite, dans le cadre graphique, nous avons proposé un nouveau modèle graphique, basé sur les réseaux possibilistes, permettant la représentation des problèmes de décision sous incertitude. En effet, lorsque les connaissances et les préférences de l'agent sont exprimées de façon qualitative, nous avons proposé de les représenter par deux réseaux possibilistes qualitatifs distincts. Nous avons développé un algorithme pour le calcul des décisions optimales optimistes qui utilise la fusion de deux réseaux possibilistes. Nous avons montré aussi comment une approche basée sur les diagrammes d'influence peut être codée d'une manière équivalente dans notre nouveau modèle. Nous avons en particulier proposé un algorithme polynomial qui permet de décomposer le diagramme d'influence en deux réseaux possibilistes. Dans la dernière partie de la thèse, nous avons défini le concept de la négation d'un réseau possibiliste qui pourra servir au calcul des décisions optimales pessimistes. / In many applications, we are often in presence of decision making problems where the choice of appropriate actions need to be done. When the choice is clear and the risks are null, the decision becomes easy to select right actions. Decisions are more complex when available knowledge is flawed by uncertainty or when the established choice presents a risk. One of the main areas of Artificial Intelligence (AI) is to model, represent and reason about knowledge. In this thesis, we are interested in an inherent discipline in AI which concerns decision making problems.The qualitative possibility decision theory has developed several criteria, depending on the agent behavior, for helping him to make the right choice while maximizing one of these criteria. In this context, possibility theory provides a simple and natural way to encode uncertainty. It allows to express knowledge in a compact way using logical and graphical models. We propose in this thesis to study the representation and resolution of possibilistic qualitative decision problems. Possibilistic counterparts of standard approaches have been proposed and each approach aims to improve the computational complexity of computing optimal decisions and to provide more expressiveness to the representation model of the problem. In the logical framework, we proposed a new method for solving a qualitative decision problem, encoded by possibilistic bases, based on syntactic representations of data fusion problems. Subsequently, in a graphical framework, we proposed a new graphical model for decision making under uncertainty based on qualitatif possibilistic networks. Indeed, when agent's knowledge and preferences are expressed in a qualitative way, we suggest to encode them by two distinct qualitative possibilistic networks. We developed an efficient algorithm for computing optimistic optimal decisions based on syntactic counterparts of the possibilistic networks fusion. We also showed how an influence diagram can be equivalently represented in our new model. In particular, we proposed a polynomial algorithm for equivalently decomposing a given possibilistic influence diagram into two qualitatif possibilistic networks. In the last part of the thesis, we defined the concept of negated possibilistic network that can be used for computing optimal pessimistic decisions.
39

Essais d'analyse de la théorie axiomatique de la décision / Essays in the analysis of axiomatic decision theory

Baccelli, Jean 04 March 2016 (has links)
Cette thèse rassemble trois essais sur la théorie axiomatique de la décision.Ils relèvent principalement de l’analyse épistémologique de cette théorie.Le premier essai, “Les limites de l’ordinalisme”, concerne la doctrine ordinaliste,qui a joué un rôle important dans la constitution de la théoriemicro-économique contemporaine. Dans un premier temps, nous définissonsabstraitement cette doctrine. Nous la caractérisons par la thèse suivant laquelledes données de choix ne peuvent pas rendre empiriquement signifiantesles propriétés non-ordinales de l’utilité. Dans un second temps, nous évaluonscette thèse, la confrontant à divers développements de la théorie de la décision,qui paraissent la remettre en cause. Nous montrons que, malgré lesapparences, cette thèse n’est pas remise en cause par les développementsthéoriques que nous étudions.Le deuxième essai, “L’analyse axiomatique et l’attitude par rapport aurisque”, porte sur le statut, en théorie de la décision, des concepts d’attitudepar rapport au risque. A première vue, l’analyse axiomatique n’exploite pasces idées-là. Ceci reflète une certaine neutralité des modèles de décision ausujet de l’attitude par rapport au risque. Mais un examen plus poussé permetde mettre en valeur ce que nous nommons la variation conditionnelle et lerenforcement de l’attitude par rapport au risque, établissant par là mêmel’importance axiomatique des concepts d’attitude par rapport au risque.Le troisième essai, “Les paris révèlent-ils les croyances ?”, examine la méthodeconsistant à identifier les croyances d’un agent à partir de ses préférences.Nous nous concentrons sur l’obstacle principal auquel cette méthodeest exposée, à savoir, le problème de l’utilité dépendante des états. En premierlieu, nous illustrons ce problème de manière détaillée, distinguant quatreformes de dépendance de l’utilité aux états. En second lieu, nous présentonset discutons une stratégie permettant, malgré la possibilité d’une telle dépendance,d’identifier les croyances. Cependant, pour résoudre ainsi le problème,il faut laisser la préférence s’étendre au-delà du choix. Nous défendons quetel doit être le cas dans toute solution complète au problème de l’utilitédépendante des états. Nous affirmons aussi que c’est là la principale leçonconceptuelle à tirer de ce problème, et montrons qu’elle intéresse tant leséconomistes que les philosophes. / This thesis consists of three essays on axiomatic decision theory. Theybelong primarily to the epistemological analysis of decision theory.The first essay, “The limits of ordinalism”, focuses on ordinalism, a doctrinethat was instrumental in the constitution of contemporary microeconomictheory. First, I provide an abstract definition of this doctrine.I characterize it by the following claim: if the underlying data are choicedata, then no non-ordinal property of utility can be empirically meaningful.Second, I evaluate the above claim. I confront this claim with variousdecision-theoretic developments which seem to question its validity. I showthat, despite appearances, this claim is not challenged by the theoreticaldevelopments in question.The second essay, “Axiomatic analysis and risk attitudes”, examines thestatus of risk attitude concepts in decision theory. At first sight, axiomaticanalysis does not rely on these concepts. This indicates a certain neutrality ofdecision models regarding risk attitudes. Further analysis, however, leads oneto recognize the importance of what I call the conditional variation and thestrengthening of risk attitudes. This establishes the axiomatic significance ofrisk attitude concepts.The third essay, “Do bets reveal beliefs?”, examines the preference-basedapproach to the identification of beliefs. It focuses on the main problem towhich this approach is exposed, namely state-dependent utility. First, theproblem is illustrated in full detail. Four types of state-dependent utility issuesare distinguished. Second, a strategy for identifying beliefs under statedependentutility is presented and discussed. For the problem to be solvedfollowing this strategy, however, preferences need to extend beyond choices. Iargue that this is a necessary feature of any complete solution to the problemof state-dependent utility. I also claim that this is the main conceptuallesson to draw from this problem. I explain why this lesson is of interest toeconomists and philosophers alike.
40

Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement: considérations axiomatiques

Marchant, Thierry 15 October 1996 (has links)
<p align="justify">Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.</p><p><p align="justify">Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):</p><p><p align="justify"><ol><li>Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère.<p><li>Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente.<p><li>Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, selon les besoins.</ol></p><p><p align="justify">Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.</p><p><p align="justify">Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.</p><p><p align="justify">Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).</p><p><p align="justify">Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.</p> <p align="justify">Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.</p><p><p align="justify">Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.</p><p><p align="justify">Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.</p><p><p align="justify">La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.</p><p><p align="justify">Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.</p><p><p align="justify">Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.</p><p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished

Page generated in 0.1281 seconds