• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La p-médiane humanitaire

Lalanne, Jean-Joël 06 1900 (has links) (PDF)
Dans ce mémoire, nous présentons plusieurs variantes du problème de la p-médiane (PPM) classique. Le PPM classique est un problème de localisation-partitionnement. Il consiste à localiser p entrepôts parmi n groupes d'usagers (p et n entiers avec p ≤ n), de sorte que si l'on rattache chaque groupe d'usagers à son entrepôt le plus proche, la somme totale des distances des groupes d'usagers à leur entrepôt soit minimale. Les entrepôts ne peuvent être placés qu'aux emplacements des groupes d'usagers. Suite à une catastrophe humanitaire (ou naturel) provoquée, par exemple, par un séisme ou un ouragan, de nombreuses infrastructures du pays touché sont détruites. Nous nous intéressons au problème de localisation d'entrepôts destinés à l'organisation d'interventions en prévision à de telles catastrophes. Le but est de permettre que les groupes d'usagers (ou de victimes) aient une grande probabilité de recevoir les soins et besoins vitaux nécessaires assez rapidement tout en respectant le budget disponible pour l'aide humanitaire. Le modèle du PPM classique n'est pas adapté à ce type de problème puisqu'il ne tient pas compte des infrastructures qui risquent d'être détruites lors d'un désastre naturel. Ainsi, les solutions qu'il produit ne pourront pas être intégrées dans les décisions logistiques de prépositionnement de dépôts et de matériel d'intervention et de support à la population (ou groupes d'usagers). Dans cette étude, nous tenterons de trouver des solutions à ce type de problème en proposant des variantes du PPM dites "humanitaires" qui prendront en compte de nouvelles contraintes et la probabilité de survie de certaines infrastructures face à un séisme. Un paramètre important, la matrice des distances d'accès, sera modifié en conséquence. L'objectif est de minimiser la distance d'accès totale tout en respectant le budget disponible. Nous présentons des modèles linéaires utilisant des variables binaires. Des expériences numériques sont effectuées, à l'aide du logiciel d'optimisation CPLEX, sur des réseaux expérimentaux et un réseau réel. Les résultats obtenus nous montrent comment varie la distance d'accès totale en fonction du nombre d'entrepôts que l'on souhaite localiser et certains autres paramètres. Ainsi, ayant conscience de l'impact des variantes étudiées, le gestionnaire prendra de meilleures décisions de localisation d'entrepôts en prévision d'une catastrophe de ce type. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Problème de la p-médiane classique (PPM), problème de la p-médiane humanitaire (PPMH), prépositionnement d'entrepôts, catastrophe humanitaire, séisme, aide humanitaire, probabilité de survie d'infrastructures, matrice des distances d'accès.
2

Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées

Gay, Jean-Christophe 19 October 2011 (has links) (PDF)
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d'un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu'à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d'expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu'à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d'utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l'algorithme du Volume. L'instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l'implémentation séquentielle et en 10 minutes par l'implémentation parallèle de l'algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l'application d'une heuristique de construction gloutonne puis d'une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d'opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s'ils aident à réduire le coût global des affectations.
3

Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées / Resolution of the p-median problem : application to restructuring semi-structured data

Gay, Jean-Christophe 19 October 2011 (has links)
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d’un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu’à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d’expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu’à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d’utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l’algorithme du Volume. L’instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l’implémentation séquentielle et en 10 minutes par l’implémentation parallèle de l’algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l’application d’une heuristique de construction gloutonne puis d’une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d’opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s’ils aident à réduire le coût global des affectations. / The problems we consider in this thesis are of combinatorial nature. Our main interest is the problem of approximating typing of a semistructured data. For example XML is a semistructured data. This problem may be reduced to an instance of the p-median problem. The main obstacle here is the size of the instances that may be very huge, about 10000 and 20000 nodes which imply several hundreds of million variables. For these instances, even solving the linear relaxation is a hard task. In some preliminary results we noticed that Cplex may solve instances of size 1000 in an acceptable time. But for some instances having 5000 nodes, it may needs 14 days for solving only the linear relaxation. Therefore, we cannot use methods that consider the linear relaxation as an elementary operation, as for example branch-and-cut methods. Instead of using Cplex we use the Volume algorithm in a parallel implementation (32 processors).For the instance where the Cplex needs 14 hours, the Volume algorithm in sequential implementation needs 24 minutes and in parallel implementation it needs 10 minutes. The solution of the linear relaxation is used to produce a feasible solution by first applying a greedy and then a local search heuristic. We notice that the results we obtain are relatively the same as those given by the best method known up today, which produces more effort and consumes more memory. Memory is important in our case since the data we consider are huge. We study the dominant of the polytope associated with the p-median problem. We discuss linear relaxation and a polyhedral characterization. Finally, we consider a more realistic version of the p-median problem when applied to the problem of approximating typing of a semistructured data. Roughly speaking, we add new nodes to the underlying graph if this help to reduce the overall cost.

Page generated in 0.0282 seconds