• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 26
  • 14
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Sens et portée du rôle du législateur chez Jean-Jacques Rousseau

St-Amand, Antoine 09 1900 (has links)
La figure du législateur demeure matière à controverse dans la pensée politique de Jean-Jacques Rousseau. Son rôle, consistant à « transformer » la nature humaine en vue de réaliser la vertu civique, a porté certains interprètes à voir dans sa pensée une forme d’autoritarisme. L'erreur de cette interprétation nous apparaît être dans le sens et la portée attribués à l'idée de transformation morale. Cette dernière n'implique pas une transformation radicale des mœurs, mais bien leur parachèvement. Circonscrire cette portée nécessite de concevoir les mœurs comme une matière donnée et qui ne saurait être façonnée indéfiniment, car ses potentialités sont déterminées par son développement historique. Ce caractère décisif attribué par Rousseau au développement historique peut se comprendre à la lumière de sa conception pessimiste de l’évolution des mœurs. D’après cette conception, les mœurs, essentiellement corruptibles, atteignent un stade historique de corruption où elles ne sauraient être parachevées en vertu. Il s’ensuit que seul un peuple dont les mœurs sont non corrompues par le progrès historique a la potentialité d'atteindre la vertu. Ainsi, la tâche du législateur d'effectuer une transformation morale de l'homme doit être entendue non comme celle de créer ex nihilo une nouvelle nature humaine, mais comme celle de parachever les virtualités propres aux mœurs saines. / The status of the legislator remains a matter of controversy in the political philosophy of Jean-Jacques Rousseau. His role, which consist in transforming human nature in order to realize civic virtue, has lead some interpreters to see in Rousseau’s thought a form of autocratic process. This error of interpretation seems related to the meaning and the range attributed to the idea of moral transformation. For Rousseau, the latter does not imply a radical transformation of morals (moeurs), but rather a process for perfecting or improving them. To circumscribe this task requires interpreting morals as a given matter that is not indefinitely malleable since its potential is determined by its historical development. This decisive character attributed to historical development by Rousseau can be understood in the light of his pessimistic conception of the evolution of morals. According to this conception, morals are essentially corruptible, and reach an historical stage of decadence such that they cannot be reformed into virtue. It follows that only a people whose morals are not corrupted by historical progress have the potential to reach virtue. Accordingly, the legislator, whose task is to carry out a moral transformation of man, must not be understood as one that creates ex nihilo a new human nature but rather as one that completes the potentiality inherent to healthy morals.
22

Le pessimisme en littérature pour la jeunesse : le cas des dystopies pour adolescents

Lacroix, Anna 06 February 2019 (has links)
Ce mémoire se propose d’analyser le pessimisme en littérature pour la jeunesse, en s’intéressant particulièrement à sa manifestation dans les dystopies pour adolescents. La littérature pour la jeunesse est issue d'une tradition qui la définit comme optimiste, ce que démontrent les processus de censure auxquels elle est souvent soumise, entre autres par le milieu éditorial. Dans un tel contexte, il paraît difficile d’expliquer la vague de popularité qu’ont connue les romans dystopiques adressés aux adolescents publiés au début du XXIe siècle. Ce genre, montrant une société fictive la plupart du temps futuriste dans laquelle évolue un protagoniste qui y souffre et qui désire se révolter contre elle, est en effet caractérisé par un pessimisme assez prononcé. Le présent mémoire s’interroge sur la façon dont les auteurs de dystopies pour adolescents parviennent à faire s’harmoniser l’optimisme de la littérature pour la jeunesse et le pessimisme du genre dystopique et pose l’hypothèse que ce pessimisme est présenté de manière édulcorée au jeune public visé. Une comparaison entre un corpus d’œuvres pour adolescents et un autre destiné à un public adulte nous a servi à mettre cette hypothèse à l’épreuve en considérant deux aspects principaux, le personnage et la société, ainsi que d’autres facteurs d’atténuation qui se voient au fil de la lecture. Ces divers éléments contribuent selon nous à édulcorer le pessimisme des dystopies pour adolescents en créant un effet de familiarité pour les lecteurs et en allégeant le poids mis sur leurs épaules et sur celles des protagonistes. / This master’s thesis aims to analyse the pessimism in children’s literature, focussing particularly on its manifestation within dystopias for young adults. Children’s literature is traditionally regarded by many as an inherent optimist genre, as shown by the censorship to which it is regularly subjected, principally by the editorial process. In this context, it seems hard to explain the massive popularity wave that the dystopian novels for young adults experienced in the wake of the XXI century. This genre, displaying an usually futuristic fictional society in which evolves a character who suffers and who desires to revolt against it, is indeed characterized by a pronounced pessimism. This master’s thesis questions the way authors of dystopias for young adults harmonise the inherent optimism of children’s literature and the pessimism of the dystopian genre, while posing the hypothesis that the said pessimism is presented to the young target audience in a much attenuated state. A comparison between a corpus of novels intended to teenagers and another one that has an adult target audience was used in order to study our hypothesis within two main aspects, the character and the society, as well as other mitigating factors that can be seen throughout the book. We think these various elements all contribute to reduce the pessimism in dystopias for young adults by creating a familiar feeling for the readers and by lightening the burden that is resting on their shoulders and on those of the protagonists.
23

Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes

Noumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
24

Motion planning of multi-robot system for airplane stripping / Plannification des trajectoires s’un système multi-robot pour faire le décapage des avions

Kalawoun, Rawan 26 April 2019 (has links)
Cette thèse est une partie d’un projet français qui s’appelle AEROSTRIP, un partenariat entre l’Institut Pascal, Sigma, SAPPI et Air-France industries, il est financé par le gouvernement français par le programme FUI (20 eme appel). Le projet AEROSTRIP consiste à développer le premier système automatique qui nettoie écologiquement les surfaces des avions et les pièces de rechange en utilisant un abrasif écologique projeté à grande vitesse sur la surface des avions (maïs). Ma thèse consiste à optimiser les trajectoires du système robotique total de telle façon que le décapage de l’avion soit optimal. Le déplacement des robots est nécessaire pour assurer une couverture totale de la surface à décaper parce que ces surfaces sont trop grandes et elles ne peuvent pas être décapées d’une seule position. Le but de mon travail est de trouver le nombre optimal de robots avec leur positions optimales pour décaper totalement l’avion. Une fois ce nombre est déterminé, on cherche les trajectoires des robots entre ces différentes positions. Alors, pour atteindre ce but, j’ai défini un cadre général composant de quatre étapes essentiels: l’étape pre-processing, l’étape optimization algorithm, l’étape generation of the end-effector trajectories et l’étape robot scheduling, assignment and control.Dans ma thèse, j’ai deux contributions dans deux différentes étapes du cadre général: l’étape pre-processing et l’étape optimization algorithm. Le calcul de l’espace de travail du robot est nécessairedans l’étape pre-processing: on a proposé l’Analyse par Intervalles pour trouver cet espace de travail parce qu’il garantie le fait de trouver des solutions dans un temps de calcul raisonnable. Alors, ma première contribution est une nouvelle fonction d’inclusion qui réduit le pessimisme, la surestimation des solutions qui est le principal inconvénient de l’Analyse par Intervalles. La nouvelle fonction d’inclusion est évaluée sur des problèmes de satisfaction de contraintes et des problèmes d’optimisation des contraintes. En plus, on a proposé un algorithme d’optimisation hybride pour trouver le nombre optimal de robots avec leur positions optimales: c’est notre deuxième contribution qui est dans l’étape optimization algorithm. Pour évaluer l’algorithme d’optimisation, on a testé cet algorithme sur des surfaces régulières, comme un cylindre et un hémisphère, et sur un surface complexe: une voiture. / This PHD is a part of a French project named AEROSTRIP, (a partnership between Pascal Institute,Sigma, SAPPI, and Air-France industries), it is funded by the French Government through the FUIProgram (20th call). The AEROSTRIP project aims at developing the first automated system thatecologically cleans the airplanes surfaces using a process of soft projection of ecological media onthe surface (corn). My PHD aims at optimizing the trajectory of the whole robotic systems in orderto optimally strip the airplane. Since a large surface can not be totally covered by a single robot base placement, repositioning of the robots is necessary to ensure a complete stripping of the surface. The goal in this work is to find the optimal number of robots with their optimal positions required to totally strip the air-plane. Once found, we search for the trajectories of the robots of the multi-robot system between those poses. Hence, we define a general framework to solve this problem having four main steps: the pre-processing step, the optimization algorithm step, the generation of the end-effector trajectories step and the robot scheduling, assignment and control step.In my thesis, I present two contributions in two different steps of the general framework: the pre-processing step, the optimization algorithm step. The computation of the robot workspace is required in the pre-processing step: we proposed Interval Analysis to find this workspace since it guarantees finding solutions in a reasonable computation time. Though, our first contribution is a new inclusion function that reduces the pessimism, the overestimation of the solution, which is the main disadvantage of Interval Analysis. The proposed inclusion function is assessed on some Constraints Satisfaction Problems and Constraints Optimization problems. Furthermore, we propose an hybrid optimization algorithm in order to find the optimal number of robots with their optimal poses: it is our second contribution in the optimization algorithm step. To assess our hybrid optimization algorithm, we test the algorithm on regular surfaces, such as a cylinder and a hemisphere, and on a complex surface: a car.
25

Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes

Noumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
26

Étude comparative sur les méthodes de prises de décisions = A comparative study on decision-making methodology

Wu, Zhen January 2020 (has links) (PDF)
No description available.

Page generated in 0.0624 seconds