• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 21
  • 4
  • Tagged with
  • 55
  • 22
  • 21
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Approximation et résolution de problèmes d'équilibre, de point fixe et d'inclusion monotone

Hirstoaga, Sever Adrian 28 September 2006 (has links) (PDF)
Cette thèse est consacrée à la résolution de trois types de problèmes fondamentaux qui apparaissent en analyse fonctionnelle hilbertienne non-linéaire et dans ses applications : les problèmes d'équilibre pour les bifonctions monotones, les problèmes de point fixe pour les contractions, et les problèmes d'inclusion pour les opérateurs monotones. Notre objectif est d'élaborer de nouvelles méthodes d'approximation et de construction de solutions pour ces problèmes et d'étudier leur comportement asymptotique. Dans un premier temps, nous proposons de nouvelles perturbations visqueuses et visco-pénalisées de ces problèmes, et étudions le comportement asymptotique des courbes d'approximation associées quand la perturbation devient évanescente. Nous étudions ensuite les propriétés de divers systèmes dynamiques discrets et continus associés à ces courbes. Cette étude débouche en particulier sur de nouveaux algorithmes, dont la convergence est établie. Des applications numériques à des problèmes de restauration en traitement de l'image sont fournies pour illustrer la mise en œuvre et les performances de certains des algorithmes proposés.
42

Techniques combinatoires pour les algorithmes paramétrés et les noyaux, avec applications aux problèmes de multicoupe.

Daligault, Jean 05 July 2011 (has links) (PDF)
Dans cette thèse, nous abordons des problèmes NP-difficiles à l'aide de techniques combinatoires, en se focalisant sur le domaine de la complexité paramétrée. Les principaux problèmes que nous considérons sont les problèmes de Multicoupe et d'Arbre Orienté Couvrant avec Beaucoup de Feuilles. La Multicoupe est une généralisation naturelle du très classique problème de coupe, et consiste à séparer un ensemble donné de paires de sommets en supprimant le moins d'arêtes possible dans un graphe. Le problème d'Arbre Orienté Couvrant avec Beaucoup de Feuilles consiste à trouver un arbre couvrant avec le plus de feuilles possible dans un graphe dirigé. Les résultats principaux de cette thèse sont les suivants. Nous montrons que le problème de Multicoupe paramétré par la taille de la solution est FPT (soluble à paramètre fixé), c'est-à-dire que l'existence d'une multicoupe de taille k dans un graphe à n sommets peut être décidée en temps f(k) ∗ poly(n). Nous montrons que Multicoupe dans les arbres admet un noyau polynomial, c'est-à-dire est réductible aux instances de taille polynomiale en k. Nous donnons un algorithme en temps O∗(3.72k) pour le problème d'Arbre Orienté Couvrant avec Beaucoup de Feuilles et le premier algorithme exponentiel exact non trivial (c'est-à-dire meilleur que 2n). Nous fournissons aussi un noyau quadratique et une approximation à facteur constant. Ces résultats algorithmiques sont basés sur des résultats combinatoires et des propriétés structurelles qui concernent, entre autres, les décompositions arborescentes, les mineurs, des règles de réduction et les s−t numberings. Nous présentons des résultats combinatoires hors du domaine de la complexité paramétrée: une caractérisation des graphes de cercle Helly comme les graphes de cercle sans diamant induit, et une caractérisation partielle des classes de graphes 2-bel-ordonnées.
43

Sub-Polyhedral Compilation using (Unit-)Two-Variables-Per-Inequality Polyhedra / Compilation sous-polyédrique reposant sur des systèmes à deux variables par inégalité

Upadrasta, Ramakrishna 13 March 2013 (has links)
Notre étude de la compilation sous-polyédrique est dominée par l’introduction de la notion l’ordonnancement affine sous-polyédrique, pour laquelle nous proposons une technique utilisant des sous-polyèdres (U)TVPI. Dans ce cadre, nous introduisons des algorithmes capables de construire des sous-approximations de systèmes de contraintes résultant de problèmes d’ordonnancement affine. Cette technique repose sur des algorithmes polynomiaux simples pour approcher un polyèdre quelconque par un polyèdre (U)TVPI. Nos algorithmes sont suffisamment génériques pour s’appliquer à de nombreux problèmes d’ordonnancement, de parallélisation, et d’optimisation de boucles, réduisant leur complexité temporelle à des fonctions polynomiales. Nous introduisons également une méthode pour la génération de code utilisant des algorithmes sous-polyédriques, tirant parti de la faible complexité des sous-polyèdres (U)TVPI. Dans ce cadre, nous montrons comment réduire la complexité associée aux générateurs de code les plus populaires, ramenant la complexité de plusieurs facteurs exponentiels à des fonctions polynomiales. Nombre de ces techniques sont évaluées expérimentalement. Pour cela, nous avons réalisé une version modifiée du compilateur PLuTo, capable de paralléliser et d’optimiser des nids de boucles pour des architectures multi-cœurs à l’aide de transformations affines, et notamment de partitionnement (tiling). Nous montrons qu’une majorité des noyaux de calcul de la suite Polybench (2.0) peut être manipulée à l’aide de notre technique d’ordonnancement, en préservant la faisabilité des polyèdres lors des sous-approximations. L’utilisation des systèmes approchés par des sous-polyèdres conduit à des gains asymptotiques en complexité, qui se traduit par des réductions significatives en temps de compilation, par rapport à un solveur de programmation linéaire de référence. Nous vérifions également que le code généré par notre prototype de parallélisation sous-polyédrique est compétitif par rapport à la performance du code généré par Pluto. / The goal of this thesis is to design algorithms that run with better complexity when compiling or parallelizing loop programs. The framework within which our algorithms operate is the polyhedral model of compilation which has been successful in the design and implementation of complex loop nest optimizers and parallelizing compilers. The algorithmic complexity and scalability limitations of the above framework remain one important weakness. We address it by introducing sub-polyhedral compilation by using (Unit-)Two-Variable-Per-Inequality or (U)TVPI Polyhedra, namely polyhedrawith restricted constraints of the type ax_{i}+bx_{j}\le c (\pm x_{i}\pm x_{j}\le c). A major focus of our sub-polyhedral compilation is the introduction of sub-polyhedral scheduling, where we propose a technique for scheduling using (U)TVPI polyhedra. As part of this, we introduce algorithms that can be used to construct under-aproximations of the systems of constraints resulting from affine scheduling problems. This technique relies on simple polynomial time algorithms to under approximate a general polyhedron into (U)TVPI polyhedra. The above under-approximation algorithms are generic enough that they can be used for many kinds of loop parallelization scheduling problems, reducing each of their complexities to asymptotically polynomial time. We also introduce sub-polyhedral code-generation where we propose algorithms to use the improved complexities of (U)TVPI sub-polyhedra in polyhedral code generation. In this problem, we show that the exponentialities associated with the widely used polyhedral code generators could be reduced to polynomial time using the improved complexities of (U)TVPI sub-polyhedra. The above presented sub-polyhedral scheduling techniques are evaluated in an experimental framework. For this, we modify the state-of-the-art PLuTo compiler which can parallelize for multi-core architectures using permutation and tiling transformations. We show that using our scheduling technique, the above under-approximations yield polyhedra that are non-empty for 10 out of 16 benchmarks from the Polybench (2.0) kernels. Solving the under-approximated system leads to asymptotic gains in complexity, and shows practically significant improvements when compared to a traditional LP solver. We also verify that code generated by our sub-polyhedral parallelization prototype matches the performance of PLuTo-optimized code when the under-approximation preserves feasibility.
44

Optimisation physique et logique de systèmes de production / Physical and logical optimization of production systems

Bernate Lara, Andres Felipe 04 April 2014 (has links)
Les travaux de cette thèse sont articulés autour du problème d’ordonnancement de tâches dans un type d’atelier de structure complexe peu étudié dans la littérature. Cet atelier est de composition hybride : chaque étage de l’atelier a une ou plusieurs machines. Les principales contraintes considérées sont le traitement par lots et la minimisation du retard total. Les méthodes de résolution de ce problème sont intégrées dans les systèmes d’aide à la décision du programme de recherche du Groupe SouffletEtant donné la structure complexe du type d’atelier considéré, nous avons décomposé ce dernier afin d’étudier plus particulièrement le problème d’ordonnancement sur machines parallèles identiques. Différentes méthodes de résolution sont testées. Les résultats sont analysés afin de proposer une classification d’instances et de méthodes de résolution. Les problèmes étudiés sont résolus de manière exacte et approchée. Différentes méthodes ont été testées : des recherches itératives, des algorithmes tabous, des méthodes évolutionnaires. Les conclusions de la résolution du problème d’ordonnancement des machines parallèles sont utilisées pour construire des méthodes à deux niveaux pour le problème complexe d’ordonnancement. Les résultats montrent que les algorithmes trouvent des solutions de bonne qualité pour le problème traité. De la même manière, de problématiques industrielles similaires sont traitées, dans l’objectif d’optimiser le fonctionnement du centre de recherche / This thesis considers a complex workshop scheduling problem, which is rarely studied to our knowledge. This workshop has a hybrid composition : one or several machines are available at each stage. Main considered constraints are batch processing and total tardiness minimization. Solution methods are embedded on the information system of research program of Soufflet Group. Given the complex structure of the workshop, it has been split in order to study the parallel machines scheduling problem individually. Different solution methods are developed. Obtained results are used to build a classification of instances and solution methods. To solve described problems, exact and approach solution methods are proposed. We have adapted iterated search, tabu search, genetic algorithms, … Findings from solving parallel machines scheduling problem are employed to develop a two levels solution method for the described flow shop problem. Results show the performance of developed algorithms to find good quality solutions for described scheduling problem. Similarly, industrial problems are considered, in order to optimize operational behavior of research center
45

Information diffusion and opinion dynamics in social networks / Dissémination de l’information et dynamique des opinions dans les réseaux sociaux

Louzada Pinto, Julio Cesar 14 January 2016 (has links)
La dissémination d'information explore les chemins pris par l'information qui est transmise dans un réseau social, afin de comprendre et modéliser les relations entre les utilisateurs de ce réseau, ce qui permet une meilleur compréhension des relations humaines et leurs dynamique. Même si la priorité de ce travail soit théorique, en envisageant des aspects psychologiques et sociologiques des réseaux sociaux, les modèles de dissémination d'information sont aussi à la base de plusieurs applications concrètes, comme la maximisation d'influence, la prédication de liens, la découverte des noeuds influents, la détection des communautés, la détection des tendances, etc. Cette thèse est donc basée sur ces deux facettes de la dissémination d'information: nous développons d'abord des cadres théoriques mathématiquement solides pour étudier les relations entre les personnes et l'information, et dans un deuxième moment nous créons des outils responsables pour une exploration plus cohérente des liens cachés dans ces relations. Les outils théoriques développés ici sont les modèles de dynamique d'opinions et de dissémination d'information, où nous étudions le flot d'informations des utilisateurs dans les réseaux sociaux, et les outils pratiques développés ici sont un nouveau algorithme de détection de communautés et un nouveau algorithme de détection de tendances dans les réseaux sociaux / Our aim in this Ph. D. thesis is to study the diffusion of information as well as the opinion dynamics of users in social networks. Information diffusion models explore the paths taken by information being transmitted through a social network in order to understand and analyze the relationships between users in such network, leading to a better comprehension of human relations and dynamics. This thesis is based on both sides of information diffusion: first by developing mathematical theories and models to study the relationships between people and information, and in a second time by creating tools to better exploit the hidden patterns in these relationships. The theoretical tools developed in this thesis are opinion dynamics models and information diffusion models, where we study the information flow from users in social networks, and the practical tools developed in this thesis are a novel community detection algorithm and a novel trend detection algorithm. We start by introducing an opinion dynamics model in which agents interact with each other about several distinct opinions/contents. In our framework, agents do not exchange all their opinions with each other, they communicate about randomly chosen opinions at each time. We show, using stochastic approximation algorithms, that under mild assumptions this opinion dynamics algorithm converges as time increases, whose behavior is ruled by how users choose the opinions to broadcast at each time. We develop next a community detection algorithm which is a direct application of this opinion dynamics model: when agents broadcast the content they appreciate the most. Communities are thus formed, where they are defined as groups of users that appreciate mostly the same content. This algorithm, which is distributed by nature, has the remarkable property that the discovered communities can be studied from a solid mathematical standpoint. In addition to the theoretical advantage over heuristic community detection methods, the presented algorithm is able to accommodate weighted networks, parametric and nonparametric versions, with the discovery of overlapping communities a byproduct with no mathematical overhead. In a second part, we define a general framework to model information diffusion in social networks. The proposed framework takes into consideration not only the hidden interactions between users, but as well the interactions between contents and multiple social networks. It also accommodates dynamic networks and various temporal effects of the diffusion. This framework can be combined with topic modeling, for which several estimation techniques are derived, which are based on nonnegative tensor factorization techniques. Together with a dimensionality reduction argument, this techniques discover, in addition, the latent community structure of the users in the social networks. At last, we use one instance of the previous framework to develop a trend detection algorithm designed to find trendy topics in a social network. We take into consideration the interaction between users and topics, we formally define trendiness and derive trend indices for each topic being disseminated in the social network. These indices take into consideration the distance between the real broadcast intensity and the maximum expected broadcast intensity and the social network topology. The proposed trend detection algorithm uses stochastic control techniques in order calculate the trend indices, is fast and aggregates all the information of the broadcasts into a simple one-dimensional process, thus reducing its complexity and the quantity of necessary data to the detection. To the best of our knowledge, this is the first trend detection algorithm that is based solely on the individual performances of topics
46

Optimizing the imbalances in a graph / Optimiser les déséquilibres dans un graphe

Glorieux, Antoine 19 June 2017 (has links)
Le déséquilibre d'un sommet dans un graphe orienté est la valeur absolue de la différence entre son degré sortant et son degré entrant. Nous étudions le problème de trouver une orientation des arêtes du graphe telle que l'image du vecteur dont les composantes sont les déséquilibres des sommets par une fonction objectif f est maximisée. Le premier cas considéré est le problème de maximiser le minimum des déséquilibres sur toutes les orientations possibles. Nous caractérisons les graphes dont la valeur objective optimale est nulle. Ensuite nous donnons plusieurs résultats concernant la complexité du problème. Enfin, nous introduisons différentes formulations du problème et présentons quelques résultats numériques. Par la suite, nous montrons que le cas f=1/2 | |·| |₁ mène au célèbre problème de la coupe de cardinalité maximale. Nous introduisons de nouvelles formulations ainsi qu'un nouveau majorant qui domine celui de Goemans et Williamson. Des résultats théoriques et numériques concernant la performance des approches sont présentés. Pour finir, dans le but de renforcer certaines des formulations des problèmes étudiés, nous étudions une famille de polyèdres spécifique consistant en l'enveloppe convexe des matrices d'affectation 0/1 (où chaque colonne contient exactement une composante égale à 1) annexée avec l'indice de leur ligne non-identiquement nulle la plus basse. Nous donnons une description complète de ce polytope ainsi que certaines de ses variantes qui apparaissent naturellement dans le contexte de divers problèmes d'optimisation combinatoire. Nous montrons également que résoudre un programme linéaire sur un tel polytope peut s'effectuer en temps polynomial / The imbalance of a vertex in a directed graph is the absolute value of the difference between its outdegree and indegree. In this thesis we study the problem of orienting the edges of a graph in such a way that the image of the vector which components are the imbalances of the vertices of the graph under an objective function f is maximized. The first case considered is the problem of maximizing the minimum imbalance of all the vertices over all the possible orientations of the input graph. We first characterize graphs for which the optimal objective value is zero. Next we give several results concerning the computational complexity of the problem. Finally, we deal with several mixed integer programming formulations for this problem and present some numerical experiments. Next, we show that the case for f=1/2 | |·| |₁ leads to the famous unweighted maximum cut problem. We introduce some new formulations along with a new bound shown to be tighter than Michel Goemans & David Williamson's. Theoretical and computational results regarding bounds quality and performance are also reported. Finally, in order to strengthen some formulations of the studied problems, we study a specific class of polytopes. Consider the polytope consisting in the convex hull of the 0/1 assignment matrices where each column contains exactly one coefficient equal to 1 appended with their index of the lowest row that is not identically equal to the zero row. We give a full description of this polytope and some of its variants which naturally appear in the context of several combinatorial optimization problems. We also show that linear optimization over those polytopes can be done in polynomial time
47

Étude des algorithmes d'approximation de fonctions de croyance généralisées

Djiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
48

Fonctions de perte en actuariat

Craciun, Geanina January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
49

Fonctions de perte en actuariat

Craciun, Geanina January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
50

Rôle de l'isospin dans la transition de phase liquide-gaz de la matière nucléaire

Ducoin, C. 03 October 2006 (has links) (PDF)
La matière nucléaire présente une transition de phase du type liquide-gaz. Ce caractère bien connu est dû au profil de l'interaction nucléaire (attractive à moyenne portée et répulsive à courte portée). Ainsi, la thermodynamique de la matière nucléaire symétrique est analogue à celle d'un fluide de Van der Waals. L'étude se révèle plus complexe dans le cas de la matière asymétrique, composée de neutrons et protons en proportion arbitraire. L'isospin, qui distingue les deux constituants, donne une mesure de cette proportion. Dans l'étude de la matière asymétrique, il s'agit d'un degré de liberté supplémentaire, ajoutant une dimension à l'espace des observables à considérer. <br />La transition liquide-gaz nucléaire est associée au phénomène de multi-fragmentation observé dans les collisions d'ions lourds, ainsi qu'à la physique des étoiles compactes : les systèmes concernés sont riches en neutrons, donc affectés par le degré de liberté d'isospin. <br />Le travail présenté ici est une étude théorique des effets d'isospin apparaissant dans la transition liquide-gaz de la matière nucléaire asymétrique. Une approche de champ moyen est employée, avec une interaction nucléaire effective de type Skyrme. Nous démontrons la présence d'une transition du premier ordre pour la matière asymétrique, et étudions le phénomène de distillation d'isospin qui l'accompagne. Le cas d'une séparation de phase à l'équilibre thermodynamique est comparé à celui d'une décomposition spinodale. Les effets de taille finie sont abordés, ainsi que l'influence du gaz d'électrons présent dans le contexte astrophysique.

Page generated in 0.3415 seconds