Spelling suggestions: "subject:"doptimisation combinatorial."" "subject:"d'optimisation combinatorial.""
31 |
Dimensionnement GRWA et protection par segment dans les réseaux optiques WDMBouffard, Alexandre January 2005 (has links)
No description available.
|
32 |
The use of geometric structures in graphics and optimization / L'utilisation des structures géométriques pour synthèse d'image et optimisationBus, Norbert 07 October 2015 (has links)
Les données du monde réel ont manifestement une composante géométrique importante et suggère les patterns géométriques signifiants. Les méthodes qui utilisent la nature géométrique des données sont activement développés dans plusieurs domaines scientifiques, comme, par exemple, la géométrie algorithmique, la géométrie discrète, la synthèse d'images, la vision par ordinateur. Dans le travail présent, nous utilisons les structures géométriques afin de modéliser des algorithmes efficaces pour deux domaines, celui de synthèse d'images et de l'optimisation combinatoire. Dans la première partie il s'agit de la structure de données géométriques, appelé une décomposition bien-séparée, et son application pour un des problèmes les plus difficiles dans la synthèse d'images, un efficace rendu photo-réalistique. Une solution consiste à appliquer toute une famille de méthodes de many-lights qui fait une approximation d'illumination globale par calcule individuelle d'illumination avec un grand nombre de VPLs (virtual point light) répartis sur les surfaces. L'application individuelle de chacun VPL résulte dans un grand nombre des calculs. Une des stratégies de la réussite pour réduire les computations est de faire les clusteurs considérés qui sont consideré comme une seul émetteur. Nous utilisons la décomposition bien-séparée de points comme le fondement de la structure des données susceptible de procéder à un calcul préliminaire et de conserver d'une façon compacte un grand nombre des clusterisations individuels potentiels ce qui montre que la clusterisation des VPL plus correspondante peut être extraite de cette structure de données d'une manière efficace. Nous montrons qu'au lieu de regroupper les points et/ou VPL indépendemment il vaut mieux produire les clusteurs sur l'espace de produit du nombre des points à nuancer et un groupe de VPL à la base de l'illumination des paires induite. En plus, nous proposons une technique adaptive afin d'échantillonner pour réduire le nombre des demandes de vérifications de visibilité pour chaque clusteur de l'espace de produit. Notre méthode consiste à détenir chaque émetteur qui peut être rapproché par VPL, matériaux spéculaire et à performer les méthodes précédents réconnus les meilleurs jusqu'au présent. La deuxième partie est consacrée au développement de nouveaux algorithmes d'approximation pour un problème fondamental de NP complet dans la géométrie algorithmique, précisément le problème du hitting set, avec une précision pour le cas d'un groupe de points et d'un groupe de disques, nous souhaiterons calculer les plus petits nombre du points qui touche tous les disques. Il arrive que les algorithmes efficaces à détecter le hitting set repose sur une structure géométrique clée, appelée epsilon-net. Nous donnons un algorithme utilisant uniquement les triangulisations de Delaunay pour construire les epsilon-nets de taille 13.4/epsilon. Nous donnons une implémentation pratique de la technique à calculer les hitting sets dans le temps quasi-linéaire en utilisant des epsilon-nets de petites tailles. Nos résultats aboutissent à une approximation de 13.4 pour le problème de hitting set par un algorithme qui fonctionne même pour les grands ensembles de données. Pour les ensembles de taille plus petite, nous proposons une implémentation de la technique de recherche locale avec une approximation bornes supérieures, avec le résultat obtenu d'approximation de (8 + epsilon) dans le temps O(n^{2.34}) / Real-world data has a large geometric component, showing significant geometric patterns. How to use the geometric nature of data to design efficient methods has became a very important topic in several scientific fields, e.g., computational geometry, discrete geometry, computer graphics, computer vision. In this thesis we use geometric structures to design efficient algorithms for problems in two domains, computer graphics and combinatorial optimization. Part I focuses on a geometric data structure called well-separated pair decomposition and its usage for one of the most challenging problems in computer graphics, namely efficient photo-realistic rendering. One solution is the family of many-lights methods that approximate global illumination by individually computing illumination from a large number of virtual point lights (VPLs) placed on surfaces. Considering each VPL individually results in a vast number of calculations. One successful strategy the reduce computations is to group the VPLs into a small number of clusters that are treated as individual lights with respect to each point to be shaded. We use the well-separated pair decomposition of points as a basis for a data structure for pre-computing and compactly storing a set of view independent candidate VPL clusterings showing that a suitable clustering of the VPLs can be efficiently extracted from this data structure. We show that instead of clustering points and/or VPLs independently what is required is to cluster the product-space of the set of points to be shaded and the set of VPLs based on the induced pairwise illumination. Additionally we propose an adaptive sampling technique to reduce the number of visibility queries for each product-space cluster. Our method handles any light source that can be approximated with virtual point lights (VPLs), highly glossy materials and outperforms previous state-of-the-art methods. Part II focuses on developing new approximation algorithms for a fundamental NP-complete problem in computational geometry, namely the minimum hitting set problem with particular focus on the case where given a set of points and a set of disks, we wish to compute the minimum-sized subset of the points that hits all disks. It turns out that efficient algorithms for geometric hitting set rely on a key geometric structure, called epsilon-net. We give an algorithm that uses only Delaunay triangulations to construct epsilon-nets of size 13.4/epsilon and we provide a practical implementation of a technique to calculate hitting sets in near-linear time using small sized epsilon-nets. Our results yield a 13.4 approximation for the hitting set problem with an algorithm that runs efficiently even on large data sets. For smaller datasets, we present an implementation of the local search technique along with tight approximation bounds for its approximation factor, yielding an (8 + epsilon)-approximation algorithm with running time O(n^{2.34})
|
33 |
Modèles et algorithmes pour l'optimisation robuste dans les Self-Organizing Network (SON) des réseaux mobiles 4G (LTE) / Models and algorithms for robust optimization in self-Organizing Networks (SON) of 4G mobile networks (LTE)Tabia, Nourredine 13 December 2013 (has links)
La norme 3G/UMTS a permis de développer les premières applications multimédia pour téléphones et tablettes mobiles. Le nouveau standard 4G/LTE (Long Term Evolution) a pour objectif le très haut débit mobile. Dans ce standard, beaucoup d’efforts ont portés sur la reconfiguration automatique des réseaux en fonction de la demande des clients dans un processus appelé Self-Organizing Network (SON). Le travail de cette thèse s’inscrit dans cette direction. La reconfiguration de réseaux est comprise principalement dans le sens des modèles, des méthodes et des outils pour analyser les indicateurs remontés du réseau et configurer automatiquement les paramètres. Nous avons essentiellement travaillé sur les paramètres des aériens, l’allocation des fréquences, des puissances d’émission et des inclinaisons verticales.Dans cette optique, étant donné la forte variabilité des données d’entrée de l’optimisation issues des remontées de réseau, cette thèse porte sur les modèles et algorithmes d’optimisation robuste dans le contexte de l’optimisation sous contraintes. L’optimisation robuste fait référence à un ensemble de procédés pour proposer des solutions à des problèmes combinatoires dans un contexte de données incertaines et de scénarios variables dans le temps. Une première partie est dédiée à l’état de l’art et présente les principes des Self-Organizing Network (SON). La deuxième partie est consacrée à l’état de l’art des méthodes en optimisation robuste. En troisième partie nous présentons la modélisation mathématique du problème d’optimisation pour lequel les données de trafic (répartitions des clients sur la zone de service et leurs demandes respectives) prennent des valeurs variables dans le temps. Une phase de diagnostic sur le fonctionnement du réseau à partir des données, et une étude de sensibilité des solutions vis-à-vis des variations dans la réalisation des données ont été faites en quatrième partie avec des algorithmes de recherche locale. La cinquième partie présente le travail de conception, développement et test sur scénarios, d’une Recherche Tabou ainsi qu’une analyse approfondie sur les méthodes de pilotage envisagées pour les SON en 4G. / The standard 3G/UMTS has launched the first multimedia applications for mobile phones and tablets. The new standard 4G/LTE (Long Term Evolution) has mobile broadband objective. In this standard a huge effort has been done on automatic network reconfiguration based on customer demand variation in a process called Self-Organizing Network (SON). The work of this thesis lies in this direction. Reconfiguration of networks lies mainly in the direction of models, methods and tools to analyze network Key Performance Indicators and automatically configure its settings. We mainly worked on the air interface parameters such that frequency assignment, emitted power and pattern vertical inclination.In this context, given the high variability of optimization input data issued from the network, this thesis focuses on robust optimization under constraints. The robust optimization refers to a set of processes to provide solutions to combinatorial problems with uncertain and variable scenarios of data over time. The first Section presents the principles of Self-Organizing Network (SON). The second Section concerns the state of the art on robust optimization. The third Section defines the mathematical model to optimize for which traffic data (distribution of customers and throughput requirements on the service area) take variable values over time. A data diagnostic phase on the network operation and a sensitivity analysis of the solutions were made in the fourth Section with several local search algorithms. The fifth Section presents the work of design, development and test of a Tabu Search method and a thorough analysis of SON control methodology proposed for 4G.
|
34 |
Régulation coopérative des intersections : protocoles et politiques / Cooperative Intersection Management : Protocols and policiesPerronnet, Florent 27 May 2015 (has links)
Dans ce travail, nous exploitons le potentiel offert par les véhicules autonomes coopératifs, pour fluidifier le trafic dans une intersection isolée puis dans un réseau d’intersections. Nous proposons le protocole SVAC (Système du Véhicule Actionneur Coopératif) permettant de réguler une intersection isolée. SVAC est basé sur une distribution individuelle du droit de passage qui respecte un ordre précis donné par une séquence de passage.Pour optimiser la séquence de passage, nous définissons la politique PED (Politique d’Evacuation Distribuée) permettant d’améliorer le temps d’évacuation total de l’intersection. La création de la séquence de passage est étudiée à travers deux modélisations. Une modélisation sous forme de graphes permettant le calcul de la solution optimale en connaissant les dates d’arrivée de tous les véhicules, et une modélisation de type réseaux de Petri avec dateurs pour traiter la régulation temps-réel. Des tests réels avec des véhicules équipés ont été réalisés pour étudier la faisabilité du protocole SVAC. Des simulations mettant en jeu un trafic réaliste permettent ensuite de montrer la capacité de fluidifier le trafic par rapport à une régulation classique par feux tricolores.La régulation d’un réseau d’intersections soulève les problèmes d’interblocage et de réorientation du trafic. Nous proposons le protocole SVACRI (Système du Véhicule Actionneur Coopératif pour les Réseaux d’Intersections) qui permet d’éliminer à priori les risques d’interblocage à travers la définition de contraintes d’occupation et de réservation de l’espace et du temps. Nous étudions également la possibilité d’améliorer la fluidité du trafic à travers le routage des véhicules, en tirant avantage du protocole SVACRI. Enfin, nous généralisons le système de régulation proposé pour la synchronisation des vitesses aux intersections. / The objective of this work is to use the potential offered by the wireless communication and autonomous vehicles to improve traffic flow in an isolated intersection and in a network of intersections. We define a protocol, called CVAS (Cooperative Vehicle Actuator System) for managing an isolated intersection. CVAS distributes separately the right of way to each vehicle according to a specific order determined by a computed sequence.In order to optimize the sequence, we define a DCP (Distributed Clearing Policy) to improve the total evacuation time of the intersection. The control strategy is investigated through two modeling approaches. First graph theory is used for calculating the optimal solution according to the arrival times of all vehicles, and then a timed Petri Net model is used to propose a real-time control algorithm. Tests with real vehicles are realized to study the feasibility of CVAS. Simulations of realistic traffic flows are performed to assess our algorithm and to compare it versus conventional traffic lights.Managing a network of intersections raises the issue of gridlock. We propose CVAS-NI protocol (Cooperative Vehicle actuator system for Networks of Intersections), which is an extension of CVAS protocol. This protocol prevents the deadlock in the network through occupancy and reservation constraints. With a deadlock free network we extend the study to the traffic routing policy. Finally, we generalize the proposed control system for synchronizing the vehicle velocities at intersections.
|
35 |
Algorithmes métaheuristiques hybrides pour la sélection de gènes et la classification de données de biopucesHernandez Hernandez, José Crispin 14 November 2008 (has links) (PDF)
Les biopuces permettent de mesurer simultanément l'activité d'un grand nombre de gènes au sein d'échantillons biologiques et de réaliser un diagnostic (reconnaissance tissu sain/tissu cancéreux ou distinction entre différents types de cancer) à partir de ces données. Pour cette tâche de classification, on dispose d'un faible nombre d'échantillons alors que chaque échantillon est décrit par un très grand nombre de gènes. Dans cette thèse, nous nous intéressons à la sélection de gènes qui permet de proposer un sous-ensemble de gènes pertinents afin de construire un classifieur prédisant le type de tumeur qui caractérise un échantillon cellulaire. Le problème de la sélection de gènes est un problème très difficile et les algorithmes métaheuristiques à base de voisinage (méthodes de recherche locale) et à base de populations (algorithmes génétiques et algorithmes mémétiques) semblent bien appropriés pour traiter ce problème. Dans cette thèse, nous proposons plusieurs méthodes de sélection dites intégrées, combinant des algorithmes métaheuristiques avec un séparateur à vaste marge linéaire (SVM). Dans ces algorithmes, la qualité d'un sous-ensemble de gènes sélectionnés est évaluée grâce au classifieur SVM. De plus, nos algorithmes exploitent l'information de pertinence fournie par le classifieur SVM sur les différents gènes pour guider les mécanismes de recherche locale ou pour proposer des opérateurs génétiques spécialisés. Des expérimentations ont été réalisées sur les différents jeux de données disponibles dans la littérature et nos méthodes se révèlent très compétitives par rapport aux travaux existants.
|
36 |
Contribution à la résolution du sac-à-dos à contraintes disjonctivesOuld Ahmed Mounir, Mohamed Elhavedh 15 October 2009 (has links) (PDF)
Le problème du sac-à-dos à contraintes disjonctives (DCKP) est une variante du sac-à-dos normal. C'est un problème dans lequel certains objets peuvent être incompatibles avec d'autres. Le DCKP apparait, souvent, comme sous problème d'autres problèmes d'optimisation combinatoire plus complexes.
|
37 |
Coopération homme-machine pour l'ordonnancement sous incertitudesGuillaume, Pinot 14 November 2008 (has links) (PDF)
La plupart des travaux en ordonnancement repose sur un modèle déterministe, peu adapté à la réalité de l'ordonnancement d'atelier. En effet, les ateliers de production sont soumis à un certain nombre d'incertitudes. C'est pourquoi l'ordonnancement sous incertitudes est un domaine en pleine expansion.<br /><br />D'autre part, l'humain n'est généralement pas pris en compte dans l'élaboration de la méthode d'ordonnancement. Pourtant, l'humain joue un rôle central dans le processus d'ordonnancement, et ses connaissances du terrain sont précieuses. C'est pourquoi nous pensons que des systèmes homme-machine efficaces sont nécessaires au bon fonctionnement des méthodes d'ordonnancement d'atelier.<br /><br />Pour cela, nous nous reposons sur l'ordonnancement de groupes. Cette méthode d'ordonnancement d'atelier comporte différents avantages pour notre recherche : c'est une méthode d'ordonnancement sous incertitudes et sa structure est facilement manipulable par l'humain. Nous étudions les systèmes homme-machine existant pour cette méthode d'ordonnancement. Nous proposons ensuite un nouveau système homme-machine, afin d'améliorer la coopération. Dans ce système, nous utilisons la qualité dans le meilleur des cas dans un ordonnancement de groupes. Comme ce thème n'est pas encore abordé dans la littérature, nous proposons des bornes inférieures, des heuristiques et une méthode exacte pour résoudre ce problème.
|
38 |
Optimisation des réseaux de télécommunications : Réseaux multiniveaux, Tolérance aux pannes et Surveillance du traficVoge, Marie-Emilie 17 November 2006 (has links) (PDF)
Les problèmes étudiés dans cette thèse sont motivés par des questions issues de l'optimisation des réseaux de télécommunication. Nous avons abordé ces problèmes sous deux angles principaux. D'une part nous avons étudié leurs propriétés de complexité et d'inapproximabilité. D'autre part nous avons dans certains cas proposé des algorithmes exacts ou d'approximation ou encore des méthodes heuristiques que nous avons pu comparer à des formulations en programmes linéaires mixtes sur des instances particulières.<br /><br />Nous nous intéressons aussi bien aux réseaux de coeur qu'aux réseaux d'accès. Dans le premier chapitre, nous présentons brièvement les réseaux d'accès ainsi que les réseaux multiniveaux de type IP/WDM et l'architecture MPLS que nous considérons pour les réseaux de coeur. Ces réseaux sont composés d'un niveau physique sur lequel est routé un niveau virtuel. A leur tour les requêtes des utilisateurs sont routées sur le niveau virtuel. Nous abordons également la tolérance aux pannes dans les réseaux multiniveaux qui motive deux problèmes que nous avons étudiés.<br /><br />Le second chapitre est consacré à la conception de réseaux virtuels. Dans un premier temps nous modélisons un problème prenant en compte la tolérance aux pannes, puis nous en étudions un sous-problème, le groupage. Notre objectif est de minimiser le nombre de liens virtuels, ou tubes, à installer pour router un ensemble de requêtes quelconque lorsque le niveau physique est un chemin orienté.<br /><br />Le troisième chapitre traite des groupes de risque (SRRG) induits par l'empilement de niveaux au sein d'un réseau multiniveaux. Grâce à une modélisation par des graphes colorés, nous étudions la connexité et la vulnérabilité aux pannes de ces réseaux.<br /><br />L'objet du quatrième chapitre est le problème du placement d'instruments de mesure du trafic dans le réseau d'accès d'un opérateur. Nous considérons aussi bien les mesures passives qu'actives. La surveillance du trafic possède de nombreuses applications, en particulier la détection de pannes et l'évaluation des performances d'un réseau.
|
39 |
Méthodes de résolution hybrides pour les problème de type knapsackCherfi, Nawal 20 November 2008 (has links) (PDF)
Dans cette thèse, nous nous intéressons aux problèmes du knapsack multidimensionnel à choix multiple. Ils interviennent essentiellement en télécommunication. Nous proposons de nouvelles méthodes hybrides de résolution exacte et approchée. Dans un premier temps, nous proposons des méthodes heuristiques en se basant sur les techniques de génération de colonnes et d'arrondi. Ensuite, nous abordons une méthode de recherche locale, dite méthode de branchement local, où des contraintes linéaires sont introduites pour intensifier et diversifier la recherche. Cette méthode est ensuite hybridée avec la génération de colonnes et une technique d'arrondi. Concernant la résolution exacte, nous nous basons sur une méthode de "Branch and cut". Nous commençons par proposer de nouvelles contraintes valides pour le problème. Ensuite, nous les associons à des contraintes de couverture locales et globales dans un schéma énumératif. Les approches heuristiques et l'algorithme exact que nous proposons sont comparés à d'autres heuristiques de la littérature et au Solveur de programmes linéaires Cplex . L'ensemble de ces tests numériques ont été menés sur des instances ardues de la littérature ainsi que sur des instances générées aléatoirement de taille modérée.
|
40 |
Une approche organisationnelle et multi-agent pour la modélisation et l'implantation de métaheuristiques, Application aux problèmes d'optimisation de réseaux de transportsMeignan, David 08 December 2008 (has links) (PDF)
Un objectif de cette thèse est de fournir des outils d'analyse, de conception et d'implantation des approches métaheuristiques pour l'optimisation combinatoire en les formulant dans le cadre des systèmes multi-agents. L'accent est mis sur la potentialité de mise en œuvre distribuée des approches et sur l'utilisation de techniques d'apprentissage permettant d'adapter dynamiquement des méthodes de recherche.<br /><br />Dans le cadre de cette thèse nous proposons tout d'abord, un framework organisationnel et multi-agent pour la modélisation et l'implantation de métaheuristiques. Ce framework nommé AMF (Agent Metaheuristic Framework), introduit un modèle organisationnel de métaheuristiques qui décrit le système sous la forme d'une organisation composée de rôles en interaction. Le premier objectif de ce modèle est de donner un cadre d'analyse et de comparaison des différentes métaheuristiques existantes. Ensuite, il doit faciliter la conception de nouveaux algorithmes en encourageant une approche multi-agent. L'intérêt de l'approche organisationnelle, actuellement utilisée dans les systèmes multi-agents, est de pouvoir décrire un système aussi bien comme un tout, le système multi-agent, que comme un assemblage de composants, les agents. De plus, cette approche permet de distinguer l'analyse des fonctions du système, de l'analyse de son architecture. Enfin, l'approche organisationnelle encourage la modularité et la réutilisation des modèles. Nous proposons en complément de ce modèle un guide méthodologique. Il définit un ensemble d'étapes permettant de passer du modèle organisationnel à une méthode d'optimisation exprimée en termes d'agent.<br /><br />Ensuite, nous présentons une métaheuristique fondée sur la métaphore de la coalition, CBM (Coalition Based Metaheuristic), mettant en avant l'intérêt d'utiliser les systèmes multi-agents pour la conception de métaheuristiques. Dans cette métaheuristique, la recherche de solution est effectuée par un ensemble d'agents regroupés dans une coalition. Chaque agent est capable d'effectuer indépendamment des autres une recherche dans l'espace des solutions à l'aide d'opérateurs de déplacement dans un voisinage de la solution courante et d'adapter sa stratégie par apprentissage par renforcement. Des mécanismes de coopération entre agents permettent d'améliorer l'efficacité de la recherche. La structure de coalition permet d'intégrer naturellement au système de résolution des aspects de distribution et de décentralisation du contrôle, de même que des procédés d'apprentissage individuels et collectifs. L'efficacité de notre approche est évaluée expérimentalement en traitant deux problèmes d'optimisation combinatoire : un problème de tournées de véhicules et un problème de positionnement.
|
Page generated in 0.2861 seconds