• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Quelques conséquences de la convergence locale faible pour les graphes aléatoires

Salez, Justin 04 July 2011 (has links) (PDF)
Dans la limite "diluée" où les nombres d'arêtes et de sommets divergent de manière comparable, il est naturel d'espérer que divers invariants classiques en théorie des graphes seront essentiellement déterminés par la seule "géométrie locale" du graphe -- c'est à dire, informellement, par l'aspect d'une boule de petit rayon autour d'un "sommet typique". Cette heuristique a pour origine l'étude des systèmes de particules en physique statistique, où sous certaines conditions, les contributions microscopiques provenant de sites suffisamment éloignés peuvent être considérées comme mutuellement indépendantes dans le calcul des grandeurs macroscopiques fondamentales du système. Mathématiquement, cette précieuse absence d'intéractions à longue portée peut se décrire rigoureusement à l'aide d'une propriété topologique : la continuité de l'invariant considéré vis-à-vis de la convergence locale faible des graphes. Tout invariant pour lequel on peut établir une telle continuité admettra aussitôt une limite déterministe le long de la plupart des suites de graphes aléatoires classiques, et pourra être efficacement approximé par des algorithmes locaux et distribués, indépendamment de la taille totale du système. Dans cette thèse, nous établissons la continuité de quatre invariants de graphes qui jouent un rôle essentiel en théorie comme dans les applications : la distribution spectrale empirique, la dimension du noyau de la matrice d'adjacence, la taille d'un couplage maximum, et le polynôme énumérant certaines familles de sous-graphes couvrants. Plus précisément, nous montrons qu'il existe une unique manière localement cohérente d'étendre chacune de ces notions aux limites locales faibles de graphes finis, et que ce prolongement est continu. Pour les modèles de graphes aléatoires classiques, les équations de cohérence locale se simplifient en une équation aux distributions que nous résolvons explicitement. Cela conduit à de nouvelles formules asymptotiques, ainsi qu'à la simplification, l'unification et la généralisation de divers résultats jusqu'alors isolés.
2

Gestion de la production décentralisée dans les réseaux de distribution

Caire, Raphael 02 April 2004 (has links) (PDF)
Les dérégulations du marché de l'énergie, suivies de nombreuses privatisations, et les désintégrations verticales ont amené une restructuration complète du secteur électrique avec de nouvelles formes d'organisation. L'ouverture des marchés de l'énergie ainsi que les développements technologiques des moyens de production de petite et moyenne puissance encouragent fortement cette évolution. Une méthodologie d'étude systématique de transmission d'impact entre la basse et moyenne tension est d'abord proposée, après un rapide état de l'art des différents impacts possibles. Le plan de tension est alors identifié comme l'impact le plus critique. Cette criticité est appuyée par des études quantitatives sur des réseaux typiques français, et confirmée par la littérature associée. Afin de solutionner cet impact, une recherche des moyens d'action sur le plan de tension du réseau de distribution ainsi que leur modélisation est réalisée. Les grandeurs de consigne des moyens de réglage disponibles étant discrètes ou continues, des outils spécifiques sont développées pour les coordonner. Cette coordination s'appuie sur des algorithmes d'optimisation développés en tenant compte de la spécificité inhérente aux grandeurs de réglage. Une méthodologie de choix ou de localisation optimale des moyens de réglage associés à une gestion du plan de tension est présentée. Enfin, des stratégies « décentralisées » de coordination des moyens de réglage et une proposition pour la validation expérimentale sont présentés, grâce à un simulateur temps réel, permettant de tester les stratégies de coordination et les moyens de communication nécessaires.
3

Équilibrage de charge et répartition de ressources dans les grands systèmes distribués

Leconte, Mathieu 18 December 2013 (has links) (PDF)
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.

Page generated in 0.0677 seconds