Spelling suggestions: "subject:"cardinalité"" "subject:"jardinalité""
1 |
La programmation DC et DCA pour l'optimisation de portefeuille / DC programming for DCA for portfolio optimizationMoeini, Mahdi 27 June 2008 (has links)
Les travaux présentés dans cette thèse concernent les nouvelles techniques d'optimisation pour la résolution de certains problèmes importants issus de finance. Il s'agit des problèmes d'optimisation non convexe de grande dimension pour lesquels la recherche des bonnes méthodes de résolution est toujours d'actualité. Notre travail s'appuie principalement sur la programmation DC (Différence de fonctions Convexes) et DCA (DC Algorithmes). Cette démarche est motivée par la robustesse et la performance de la programmation DC et DCA comparée aux autres méthodes. La thèse est divisée en deux parties et est composée de sept chapitres. Dans la première partie intitulée ¡Méthodologie¡ nous présentons des outils théoriques et algorithmiques servant des références aux autres. Le premier chapitre concerne la programmation DC et DCA tandis que le deuxième porte sur les algorithmes par séparation et évaluation. Dans la deuxième partie nous développons la programmation DC et DCA pour la résolution des problèmes en finance. Nous commençons par une introduction à la gestion de portefeuille (le Chapitre 3). Le Chapitre 4 est dédié aux généralisations du modèle moyenne-variance (MV) de Markowitz, où nous étudions le modèle MV sous les contraintes de seuil d'achat, de seuil et de cardinalité. Le Chapitre 5 est consacré à la mesure de risque de baisse et les contraintes de cardinalité. Le Chapitre 6 porte sur le problème de choix de portefeuille avec les fonctions des coûts de transaction en escalier. L'investissement robuste en gestion de portefeuille sous les contraintes de cardinalité est développé dans le dernier chapitre. / The topics presented in this thesis are related to new optimization techniques for solving some challenging problems resulting from finance. They are large-scale non convex optimization problems for which finding efficient solving methods is currently the topic of numerous researches. Our work is based mainly on DC (Difference of Convex functions) programming and DCA (DC Algorithm). This approach is motivated by the robustness and efficiency of DC programming and DCA approaches in comparison to the other methods. The thesis is divided into two parts and consists of seven chapters. In the first part entitled Methodology ; we present theoretical tools and algorithms that we are going to use in the thesis. The first chapter is about DC programming and DCA and the second focuses on branch and bound algorithms. In the second part we develop DC programming and DCA for solving some problems in finance. We begin with an introduction to the modern portfolio theory (The Chapter 3). The Chapter 4 is dedicated to the generalizations of the mean variance (MV) model of Markowitz, where we study the MV model under the buy-in threshold constraints, threshold constraints, and cardinality constraints. The Chapter 5 is devoted to the portfolio selection problem under downside risk measure and cardinality constraints. The Chapter 6 deals with the portfolio optimization under step increasing transaction costs functions. Finally, the robust investment strategies with discrete asset choice constraints are developed in the last chapter.
|
2 |
Etude algorithmique de certaines classes de graphes parfaits : les graphes de parité, les graphes i-triangulés, les graphes parfaits trois chromatiquesBurlet, Michel 28 September 1981 (has links) (PDF)
.
|
3 |
Optimisation des requêtes skyline multidimensionnelles / Optimization of multidimensional skyline queriesKamnang Wanko, Patrick 09 February 2017 (has links)
Dans le cadre de la sélection de meilleurs éléments au sein d’une base de données multidimensionnelle, plusieurs types de requêtes ont été définies. L’opérateur skyline présente l’avantage de ne pas nécessiter la définition d’une fonction de score permettant de classer lesdits éléments. Cependant, la propriété de monotonie que cet opérateur ne présente pas, rend non seulement (i) difficile l’optimisation de ses requêtes dans un contexte multidimensionnel, mais aussi (ii) presque imprévisible la taille du résultat des requêtes. Ce travail se propose, dans un premier temps, d’aborder la question de l’estimation de la taille du résultat d’une requête skyline donnée, en formulant des estimateurs présentant de bonnes propriétés statistiques(sans biais ou convergeant). Ensuite, il fournit deux approches différentes à l’optimisation des requêtes skyline. La première reposant sur un concept classique des bases de données qui est la dépendance fonctionnelle. La seconde se rapprochant des techniques de compression des données. Ces deux techniques trouvent leur place au sein de l’état de l’art comme le confortent les résultats expérimentaux.Nous abordons enfin la question de requêtes skyline au sein de données dynamiques en adaptant l’une de nos solutions précédentes dans cet intérêt. / As part of the selection of the best items in a multidimensional database,several kinds of query were defined. The skyline operator has the advantage of not requiring the definition of a scoring function in order to classify tuples. However, the property of monotony that this operator does not satify, (i) makes difficult to optimize its queries in a multidimensional context, (ii) makes hard to estimate the size of query result. This work proposes, first, to address the question of estimating the size of the result of a given skyline query, formulating estimators with good statistical properties (unbiased or convergent). Then, it provides two different approaches to optimize multidimensional skyline queries. The first leans on a well known database concept: functional dependencies. And the second approach looks like a data compression method. Both algorithms are very interesting as confirm the experimental results. Finally, we address the issue of skyline queries in dynamic data by adapting one of our previous solutions in this goal.
|
4 |
Multicoupes et sous-graphes induits : complexité et algorithmes.Derhy, Nicolas 04 December 2008 (has links) (PDF)
Dans ce travail de thèse, nous nous intéressons à plusieurs problèmes de théorie des graphes. Dans un premier temps, nous étudions différents problèmes de coupes et de multicoupes puis, dans un second temps, nous nous focalisons sur des problèmes de recherche de sous-graphes induits. Néanmoins, ces deux parties suivent la même ligne directrice : donner une vue d'ensemble de la complexité des problèmes en établissant leur NP-complétude ou en déterminant un algorithme polynomial de moindre complexité. Dans la première partie de la thèse, nous abordons les problèmes de coupes et de multicoupes. Tout d'abord, nous étudions la conséquence de l'ajout d'une contrainte de cardinalité à ces deux types de problèmes et démontrons leur NP- complétude dans le cas général. Puis, nous déterminons leur complexité dans plusieurs classes de graphes particuliers telles que les étoiles orientées et les chaînes en élaborant, pour les cas polynomiaux, différents algorithmes reposant principalement sur la programmation dynamique et l'utilisation de relaxations lagrangiennes. Nous généralisons ensuite cette approche en considérant les versions multicritères des problèmes de coupes et de multicoupes. Nous prouvons que ces derniers sont NP-complets même dans des topologies très simples comme les chaînes ou les cycles. Dans la seconde partie de ce mémoire, nous abordons des problèmes de recherche de sous-graphes induits. Nous nous intéressons principalement à la recherche d'arbres, de chaînes et de cycles induits couvrant un ensemble T de sommets donnés. Après avoir prouvé la NP-complétude des cas généraux, nous nous focalisons davantage sur les cas où la cardinalité de T est fixée. Nous donnons également plusieurs résultats structurels pour les graphes de maille suffisamment large.
|
5 |
Les enjeux cognitifs et stylistiques de l'organisation hypertextuelle : le Lieu, Le Lien, Le LivreErtzscheid, Olivier 27 September 2002 (has links) (PDF)
L'enjeu de ce doctorat est de montrer comment la perception et les pratiques liées à la figure de l'hypertexte permettent d'entrevoir de profonds bouleversements dans notre rapport à l'écrit (document numérique, nouveaux genres littéraires, textualité renouvelée), à l'organisation de la connaissance, ainsi qu'à la manière dont s'agrègent, se constituent, se développent et se transforment les différents types de rapport au réel présents dans toute organisation sociale réticulée. L'analyse critique de ces transformations nous permet de préciser comment se met progressivement en place une nouvelle écologie cognitive, en quoi elle est rendue nécessaire, et quels sont les outils (typologie englobante des processus de liaison entre entités) et les pratiques sociales émergentes qui la fondent.<br /><br /> Dans notre premier chapitre, nous faisons d'abord un point sur les effets déjà mesurables de l'organisation hypertextuelle dans le rapport à l'écrit pour isoler les transformations cognitives occasionnées par ce nouveau support, pour isoler également la nouvelle organisation des structures traditionnelles de l'énonciation dans le processus de communication (rapports auteur-lecteur, agencements collectifs d'énonciation). Nous concluons par une typologie des nouveaux genres hypertextuels (liés notamment à l'utilisation de générateurs) et sur le statut littéraire de ces productions.<br /> Notre second chapitre aborde les aspects plus « théoriques » de l'organisation hypertextuelle au travers de l'étude systématique de ses procédés de liaison. Après un état de l'art de la question, nous définissons une typologie englobante des liens hypertextuels prenant en compte leurs aspects informatiques, les structures rhétoriques et formelles qui les sous-tendent et les différents types de rapport entre ces « entités-liens » autorisant à qualifier différentes organisations hypertextuelles. Sur tous ces points, les propositions formulées dans ce travail devront permettre d'améliorer les pratiques de navigation et de réduire certains effets liés (surcharge cognitive, désorientation).<br /> Notre troisième chapitre montre que ce que ces liens révèlent du fonctionnement de la pensée humaine (mode essentiellement associatif) est en train de changer la manière dont les systèmes et les organisations sociales se constituent et se développent, en mettant en place, de manière effective, des artefacts et de processus habituellement implicites et dont l'enjeu sera, pour le chercheur, d'accompagner le passage à l'explicite. Ce dernier chapitre s'appuie sur le dispositif expérimental FoRSIC et l'utilisation qu'il fait de différents types ontologiques, ce dernier étant caractéristique des ces nouveaux rapports au savoir que notre travail essaie de qualifier plus que de quantifier.
|
Page generated in 0.049 seconds