• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 10
  • 1
  • Tagged with
  • 29
  • 15
  • 12
  • 11
  • 9
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L’incidence du rendement sur la gestion du risque au sein de l’industrie des fonds communs de placement

Lamoureux-Bélair, Guillaume January 2014 (has links)
D’un point de vue théorique, la délégation de la gestion au sein de l’industrie des fonds communs de placement présente un conflit d’intérêt important. Les investisseurs désirent maximiser leur rendement ajusté pour leur risque, tandis que les gestionnaires sont davantage motivés par leurs propres intérêts personnels. Le présent mémoire s’intéresse à l’incidence du rendement d’un gestionnaire sur son comportement de prise de risque. Brown al. (1996) font partie des premiers auteurs à étudier ce phénomène, qu’ils appellent l’effet tournoi. L’hypothèse de tournoi amené par ceux-ci stipule que les gestionnaires ayant connu de mauvaises performances relativement aux pairs pendant les six premiers mois d’une année sont tentés d’altérer le risque de leur portefeuille avant la fin de l’année. Leur motivation est de ne pas finir en bas du classement relatif. Notre échantillon est composé de 16 965 fonds communs de placement américains orientés croissance et petites capitalisations croissance, sur la période du 2 janvier 1996 au 31 décembre 2012. Nous testons d’abord l’hypothèse de tournoi dans notre échantillon avec des mesures de risque total et systématique ex post et ex ante, via des tables de contingence et de tests de Friedman (1920). Nous visons ainsi à confronter la littérature qui emploie majoritairement des mesures de risque réalisées, ainsi que des tables de contingence. Nos résultats montrent que le choix de la mesure de risque a une incidence importante sur les conclusions relatives à l’hypothèse de tournoi. Nous exposons par ailleurs que les gestionnaires aux rendements relatifs les plus faibles au cours des six premiers mois de l’année (les perdants) ont l’intention de hausser davantage leur risque total et systématique conditionnel au cours du dernier semestre de l’année, comparativement aux autres gestionnaires (les gagnants). Nous analysons ensuite spécifiquement le comportement des gestionnaires gagnants de fonds communs de placement. Plus précisément, nous vérifions si le risque systématique (résiduel) des fonds communs de placement se rapproche de un (zéro) suite à l’évaluation relative des gestionnaires. À cet effet, nous employons des tests de Friedman (1920) avec deux blocs temporels de deuxième période, à savoir un mois et six mois. Nos résultats exposent bien la dynamique de la prise de risque de ces gestionnaires. En outre, nos conclusions relatives au bloc temporel d’un mois sont davantage significatives et concluantes, en regard à nos hypothèses.
2

Le CAPM augmenté conditionnel à moments supérieurs : Étude empirique de la coupe transversale des rendements moyens

Blanchet, Philippe-Olivier January 2016 (has links)
La présente recherche propose de revisiter cinq modèles d’évaluation d’actifs, soit ceux de Sharpe (1964), Carhart (1997), de Jagannathan et Wang (1996), de Ferson et Harvey (1999) et de Kraus et Litzenberger (1976). Afin de mettre l’accent sur le côté économétrique, les modèles sont évalués indépendamment selon deux méthodes, soit la régression de Fama et Macbeth (1973) et la méthode des moments généralisée de Hansen (1982). Par la suite, l’étude propose l’évaluation empirique d'un modèle multifactoriel conditionnel à moments supérieurs pour évaluer les rendements moyens en coupe transversale, nommé CAPM-ACS. Ce modèle est une tentative de combiner les principaux éléments des cinq modèles précédents. L’évaluation de ces modèles est portée sur les rendements provenant d’un échantillon de 80 portefeuilles de titres américains classés par anomalies de marché et par industrie sur la période du 1er janvier 1972 au 1er décembre 2014. Nos résultats supportent le conditionnement des bêtas des facteurs de marché, des moments supérieurs et du capital humain plutôt que le conditionnement des alphas. Les modèles conditionnels performent mieux que les modèles traditionnels et empiriques tels que Fama et French (1993), mais le facteur de momentum de Carhart (1997) persiste en présence de l’ensemble des facteurs testés dans ce mémoire.À cet effet, nos résultats soulignent un lien entre le facteur d’asymétrie et le facteur de momentum, pouvant être expliqué par le caractère asymétrique des portefeuilles de titres perdants et gagnants. De plus, l’ajout du capital humain améliore significativement la performance des modèles à capturer les variations de rendements des portefeuilles classés par industrie. Par rapport aux outils économétriques, nous observons un impact significatif des méthodes sur l’inférence statistique. Plus précisément, les mesures d’inférences sont plus conservatrices lorsque l’approche du GMM de Hansen (1982) est utilisée.
3

Lewis’ Theory of Counterfactuals and Essentialism

Lippiatt, Ian 12 1900 (has links)
La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal. / Modern logic since the end of the Second World War has undergone many developments. Two of the most interesting of these are the Kripkian Possible World Semantics and Lewis’ system of Counterfactuals. The first was developed by Saul Kripke in the 1960s and the second was developed by David Lewis in the 1970s. In some senses we can say that Lewis’ system of counterfactuals or Counter Factual Semantics (CFS) is built on top of the architecture which Kripke created with his Possible Worlds Semantics (PWS). But, what is the Kripkian Possible World Semantics itself built on? The answer it seems is very finely tuned ontology founded on the notion of possible worlds. This paper will attempt to do the following. First, attempt to draw a distinction between on the one hand conditionals and the other counterfactuals and at the same time attempt to look at some of the historical literature surrounding counterfactuals and their application in various fields like the philosophy of science. Second, recapitulate Lewis’ system of counterfactual semantics as developed primarily in Lewis’ book Counterfactuals. Finally this paper will attempt to explore the metaphysical foundations of the possible worlds account argued for by David Lewis in his conception of Modal Realism.
4

Estimation non-paramétrique des quantiles extrêmes conditionnels

Lekina, Alexandre 13 October 2010 (has links) (PDF)
L'objectif de ce travail est de proposer de nouveaux estimateurs de quantiles extrêmes dans le cadre conditionnel c'est-à-dire dans la situation où la variable d'intérêt Y, supposée aléatoire et réelle, est mesurée simultanément avec une covariable X. Pour ce faire, nous nous intéressons à l'étude des valeurs extrêmes d'un échantillon d'observations indépendantes dont la loi conditionnelle de Y en un point x de la covariable X est à " queue lourde ". Selon la nature de la covariable, nous considérons deux situations. Primo, lorsque la covariable est déterministe et de dimension finie ou infinie (i.e covariable fonctionnelle), nous proposons d'estimer les quantiles extrêmes par la méthode dite de la " fenêtre mobile ". La loi limite des estimateurs ainsi construits est ensuite donnée en fonction de la vitesse de convergence de l'ordre du quantile vers un. Secundo, lorsque la covariable est aléatoire et de dimension finie, nous montrons que sous certaines conditions, il est possible d'estimer les quantiles extrêmes conditionnels au moyen d'un estimateur à " noyau " de la fonction de survie conditionnelle. Ce résultat nous permet d'introduire deux versions lisses de l'estimateur de l'indice de queue conditionnel indispensable lorsque l'on veut extrapoler. Nous établissons la loi asymptotique de ces estimateurs. Par ailleurs, nous considérons le cas sans covariable (non conditionnel) lorsque la fonction de répartition est à " queue lourde ". Nous proposons et étudions un nouvel estimateur des quantiles extrêmes. Afin d'apprécier le comportement de nos nouveaux outils statistiques, des résultats sur simulation ainsi que sur des données réelles sont présentés.
5

Lewis’ Theory of Counterfactuals and Essentialism

Lippiatt, Ian 12 1900 (has links)
La logique contemporaine a connu de nombreux développements au cours de la seconde moitié du siècle dernier. Le plus sensationnel est celui de la logique modale et de sa sémantique des mondes possibles (SMP) dû à Saul Kripke dans les années soixante. Ces dans ce cadre que David Lewis exposera sa sémantique des contrefactuels (SCF). Celle-ci constitue une véritable excroissance de l’architecture kripkéenne. Mais sur quoi finalement repose l’architecture kripkéenne elle-même ? Il semble bien que la réponse soit celle d’une ontologie raffinée ultimement basée sur la notion de mondes possible. Ce mémoire comporte quatre objectifs. Dans un premier temps, nous allons étudier ce qui distingue les contrefactuels des autres conditionnels et faire un survol historique de la littérature concernant les contrefactuels et leur application dans différent champs du savoir comme la philosophie des sciences et l’informatique. Dans un deuxième temps, nous ferons un exposé systématique de la théorie de Lewis telle qu’elle est exposée dans son ouvrage Counterfactuals. Finalement, nous allons explorer la fondation métaphysique des mondes possible de David Lewis dans son conception de Réalisme Modal. / Modern logic since the end of the Second World War has undergone many developments. Two of the most interesting of these are the Kripkian Possible World Semantics and Lewis’ system of Counterfactuals. The first was developed by Saul Kripke in the 1960s and the second was developed by David Lewis in the 1970s. In some senses we can say that Lewis’ system of counterfactuals or Counter Factual Semantics (CFS) is built on top of the architecture which Kripke created with his Possible Worlds Semantics (PWS). But, what is the Kripkian Possible World Semantics itself built on? The answer it seems is very finely tuned ontology founded on the notion of possible worlds. This paper will attempt to do the following. First, attempt to draw a distinction between on the one hand conditionals and the other counterfactuals and at the same time attempt to look at some of the historical literature surrounding counterfactuals and their application in various fields like the philosophy of science. Second, recapitulate Lewis’ system of counterfactual semantics as developed primarily in Lewis’ book Counterfactuals. Finally this paper will attempt to explore the metaphysical foundations of the possible worlds account argued for by David Lewis in his conception of Modal Realism.
6

Malnutrition et morbidité chez les enfants en Afrique : concentratrion et inégalités socioéconomiques familiales et communautaires

Fotso, Jean-Christophe January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
7

Contributions à l'estimation de modèles probabilistes discriminants: apprentissage semi-supervisé et sélection de caractéristiques

Sokolovska, Nataliya 25 February 2010 (has links) (PDF)
Dans cette thèse nous étudions l'estimation de modèles probabilistes discriminants, surtout des aspects d'apprentissage semi-supervisé et de sélection de caractéristiques. Le but de l'apprentissage semi-supervisé est d'améliorer l'efficacité de l'apprentissage supervisé en utilisant des données non étiquetées. Cet objectif est difficile à atteindre dans les cas des modèles discriminants. Les modèles probabilistes discriminants permettent de manipuler des représentations linguistiques riches, sous la forme de vecteurs de caractéristiques de très grande taille. Travailler en grande dimension pose des problèmes, en particulier computationnels, qui sont exacerbés dans le cadre de modèles de séquences tels que les champs aléatoires conditionnels (CRF). Sélectionner automatiquement les caractéristiques pertinentes s'avère alors intéressant et donne lieu à des modèles plus compacts et plus faciles à utiliser. Notre contribution est double. Nous introduisons une méthode originale et simple pour intégrer des données non étiquetées dans une fonction objectif semi-supervisé. Nous démontrons alors que l'estimateur semi-supervisé correspondant est asymptotiquement optimal. Le cas de la régression logistique est illustré par des résultats d'expériences. Nous proposons un algorithme d'estimation pour les CRF qui réalise une sélection de caractéristiques, par le truchement d'une pénalisation $L_1$. Nous présentons également les résultats d'expériences menées sur des tâches de traitement des langues, en analysant les performances en généralisation et les caractéristiques sélectionnées. Nous proposons finalement diverses pistes pour améliorer l'efficacité computationelle de cette technique.
8

Modèles graphiques discriminants pour l'étiquetage de séquences : application à la reconnaissance d'entités nommées radiophiniques / Discriminative graphical models for sequence labelling : application to named entity recognition in audio broadcast news

Zidouni, Azeddine 08 December 2010 (has links)
Le traitement automatique des données complexes et variées est un processus fondamental dans les applications d'extraction d'information. L'explosion combinatoire dans la composition des textes journalistiques et l'évolution du vocabulaire rend la tâche d'extraction d'indicateurs sémantiques, tel que les entités nommées, plus complexe par les approches symboliques. Les modèles stochastiques structurels tel que les champs conditionnels aléatoires (CRF) permettent d'optimiser des systèmes d'extraction d'information avec une importante capacité de généralisation. La première contribution de cette thèse est consacrée à la définition du contexte optimal pour l'extraction des régularités entre les mots et les annotations dans la tâche de reconnaissance d'entités nommées. Nous allons intégrer diverses informations dans le but d'enrichir les observations et améliorer la qualité de prédiction du système. Dans la deuxième partie nous allons proposer une nouvelle approche d'adaptation d'annotations entre deux protocoles différents. Le principe de cette dernière est basé sur l'enrichissement d'observations par des données générées par d'autres systèmes. Ces travaux seront expérimentés et validés sur les données de la campagne ESTER. D'autre part, nous allons proposer une approche de couplage entre le niveau signal représenté par un indice de la qualité de voisement et le niveau sémantique. L'objectif de cette étude est de trouver le lien entre le degré d'articulation du locuteur et l'importance de son discours / Recent researches in Information Extraction are designed to extract fixed types of information from data. Sequence annotation systems are developed to associate structured annotations to input data presented in sequential form. The named entity recognition (NER) task consists of identifying and classifying every word in a document into some predefined categories such as person name, locations, organizations, and dates. The complexity of the NER is largely related to the definition of the task and to the complexity of the relationships between words and the semantic associated. Our first contribution is devoted to solving the NER problem using discriminative graphical models. The proposed approach investigates the use of various contexts of the words to improve recognition. NER systems are fixed in accordance with a specific annotation protocol. Thus, new applications are developed for new protocols. The challenge is how we can adapt an annotation system which is performed for a specific application to other target application? We will propose in this work an adaptation approach of sequence labelling task based on annotation enrichment using conditional random fields (CRF). Experimental results show that the proposed approach outperform rules-based approach in NER task. Finally, we propose a multimodal approach of NER by integrating low level features as contextual information in radio broadcast news data. The objective of this study is to measure the correlation between the speaker voicing quality and the importance of his speech
9

Contribution à l'estimation non paramétrique des quantiles géométriques et à l'analyse des données fonctionnelles

Chaouch, Mohamed 05 December 2008 (has links) (PDF)
Cette thèse est consacré à l'estimation non paramétrique des quantiles géométriques conditionnels ou non et à l'analyse des données fonctionnelles. Nous nous sommes intéressés, dans un premier temps, à l'étude des quantiles géométriques. Nous avons montré, avec plusieurs simulations, qu'une étape de Transformation-retransformation est nécessaire, pour estimer le quantile géométrique, lorsqu'on s'éloigne du cadre d'une distribution sphérique. Une étude sur des données réelles a confirmée que la modélisation des données est mieux adaptée lorsqu'on utilise les quantiles géométriques à la place des quantiles mariginaux, notamment lorsque les variables qui constituent le vecteur aléatoire sont corrélées. Ensuite nous avons étudié l'estimation des quantiles géométriques lorsque les observations sont issues d'un plan de sondage. Nous avons proposé un estimateur sans biais du quantile géométrique et à l'aide des techniques de linéarisation par les équations estimantes, nous avons déterminé la variance asymptotique de l'estimateur. Nous avons ensuite montré que l'estimateur de type Horvitz-Thompson de la variance converge en probabilité. Nous nous sommes placés par la suite dans le cadre de l'estimation des quantiles géométriques conditionnels lorsque les observations sont dépendantes. Nous avons démontré que l'estimateur du quantile géométrique conditionnel converge uniformement sur tout ensemble compact. La deuxième partie de ce mémoire est consacrée à l'étude des différents paramètres caractérisant l'ACP fonctionnelle lorsque les observations sont tirées selon un plan de sondage. Les techniques de linéarisation basées sur la fonction d'influence permettent de fournir des estimateurs de la variance dans le cadre asymptotique. Sous certaines hypothèses, nous avons démontré que ces estimateurs convergent en probabilité.
10

Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits

Montreuil, Florent 28 June 2011 (has links) (PDF)
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la reconnaissance des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs, ...) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes, ...) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique, ...) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures.

Page generated in 0.0939 seconds