Spelling suggestions: "subject:"greedy algorithm"" "subject:"greedy allgorithm""
31 |
Service Level Objective based FairnessChen, Wenqin January 2021 (has links)
To solve the bottleneck problem of resource utilization and user experience quality in mobile communication networks, 5G introduces network slicing to cope with the huge resource demand of users. To further improve the quality of service for users with different needs, a new fairness definition based on service level objective is introduced. On this basis, a network slicing dynamic resource scheduling strategy based on the greedy algorithm is designed, and the actual application scenarios of slicing scheduling and user scheduling are simplified into a two-layer model, namely the slicing-user model, and combined with the greedy algorithm to make the service weight value. Combine the largest slice and the user with the highest priority, and complete the matching service. The advantage of this method is various system resources can be fairly allocated according to the same proportion to users. Through the optimal combination of each slice and user, the resources of the entire system can be fairly allocated to users with different needs. Python simulation results showed that the newly proposed network slicing dynamic resource scheduling mechanism based on the greedy algorithm can meet the different needs of users and achieve short term fairness, where the users get a fair share of the resource by each missing their SLO by a similar percentage, so as to better meet the needs of users. / För att lösa flaskhalsproblemet med resursanvändning och användarupplevelsekvalitet i mobilkommunikationsnät introducerar 5G nätverksskivning för att klara användarnas enorma resursbehov. För att ytterligare förbättra servicekvaliteten för användare med olika behov införs en ny rättvisedefinition baserad på servicenivåmål. På grundval av detta utformas en dynamisk resursplaneringsstrategi för nätverksskivning baserad på den giriga algoritmen, och de faktiska applikationsscenarierna för skivningsplanering och användarschemaläggning förenklas till en tvåskiktsmodell, nämligen skivningsanvändarmodellen, och kombineras med girig algoritm för att göra tjänstens viktvärde. Kombinera den största delen och användaren med högsta prioritet och slutför motsvarande tjänst. Fördelen med denna metod är att olika systemresurser kan fördelas rättvist enligt samma andel, och genom den bästa kombinationen av varje segment och användare kan hela systemets resurser fördelas rättvist till användare med olika behov. Pythons simuleringsresultat visar att den nyligen föreslagna nätverksskärningsdynamiska resursplaneringsmekanismen baserad på den giriga algoritmen kan tillgodose användarnas olika behov och uppnå kortsiktig rättvisa där användarna får en rättvis andel av resursen genom att var och en saknar sin SLO med en liknande procentsats , för att bättre möta användarnas behov.
|
32 |
Traduction statistique par recherche localeMonty, Pierre Paul 08 1900 (has links)
La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique
de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche
en explorant l’espace des préfixes par programmation dynamique, une solution
coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet
(Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais
et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et
un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus,
ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art. / Statistical machine translation is a concerted effort towards the automation of the translation process. In the work presented here, we explore one of the major challenges of statistical machine translation: the search step (Brown et al., 1993). State of the art systems such as Moses (Koehn et al., 2007) search by exploring the prefix search space, a computationally costly solution to this potentially NP-complete problem (Knight, 1999). We propose that a local search approach can yield solutions which are qualitatively just as interesting, while keeping memory space and execution time at lower levels (Russell et Norvig, 2010). Furthermore, this type of search facilitates the use of global models for which a complete translation is needed and allows for non-continuous modifications, two tasks made difficult by exploring the prefix search space. The experiments we have conducted reveal that the use of local search during the search step in statistical machine translation is a viable, state of the art approach.
|
33 |
Implementation and Performance Comparison of Some Heuristic Algorithms for Block SortingTurlapaty, Sandhya 01 January 2018 (has links)
An implementation framework has been developed in this thesis for a well-known APX-hard combinatorial optimization problem known as Block Sorting. The motivation for the study of this problem comes from applications such as computational biology and optical character recognition. While existing Block Sorting research has been theoretically focused on the development and analysis of several approximation algorithms for Block Sorting, little or no work has been carried out thus far on the implementation of the proposed approximation algorithms. The conceptualization of an implementation framework and illustrating its use by experimenting with the existing approximation algorithms will provide means for discovering newer approaches to handling this important problem. As the main contribution, the research in this thesis provides a new greedy algorithm for Block Sorting in which each block move either reduces the number of blocks by two or three blocks, or reduces by one the number of reversals or inversions in the orig- inal permutation. Experimental results for all algorithms are also provided along with a comparison of their performance using the number of block moves and approximation ratios as performance metrics when sorting permutations of a given order, and as the order of permutations is varied. Preliminary results from the experimentation were shared at the 2017 IEEE 17th International Conference on Bioinformatics and Bioengineering (BIBE) [1]. To the best of our knowledge, this is the first work that has been focused on the implementation and experimental performance analysis of any algorithm for Block Sorting. We believe the results presented in this thesis will be useful for researchers and practitioners working in this area.
|
34 |
Traduction statistique par recherche localeMonty, Pierre Paul 08 1900 (has links)
La traduction statistique vise l’automatisation de la traduction par le biais de modèles statistiques. Dans ce travail, nous relevons un des grands défis du domaine : la recherche (Brown et al., 1993). Les systèmes de traduction statistique
de référence, tel Moses (Koehn et al., 2007), effectuent généralement la recherche
en explorant l’espace des préfixes par programmation dynamique, une solution
coûteuse sur le plan computationnel pour ce problème potentiellement NP-complet
(Knight, 1999). Nous postulons qu’une approche par recherche locale (Langlais
et al., 2007) peut mener à des solutions tout aussi intéressantes en un temps et
un espace mémoire beaucoup moins importants (Russell et Norvig, 2010). De plus,
ce type de recherche facilite l’incorporation de modèles globaux qui nécessitent des traductions complètes et permet d’effectuer des modifications sur ces dernières de manière non-continue, deux tâches ardues lors de l’exploration de l’espace des préfixes. Nos expériences nous révèlent que la recherche locale en traduction statistique est une approche viable, s’inscrivant dans l’état de l’art. / Statistical machine translation is a concerted effort towards the automation of the translation process. In the work presented here, we explore one of the major challenges of statistical machine translation: the search step (Brown et al., 1993). State of the art systems such as Moses (Koehn et al., 2007) search by exploring the prefix search space, a computationally costly solution to this potentially NP-complete problem (Knight, 1999). We propose that a local search approach can yield solutions which are qualitatively just as interesting, while keeping memory space and execution time at lower levels (Russell et Norvig, 2010). Furthermore, this type of search facilitates the use of global models for which a complete translation is needed and allows for non-continuous modifications, two tasks made difficult by exploring the prefix search space. The experiments we have conducted reveal that the use of local search during the search step in statistical machine translation is a viable, state of the art approach.
|
35 |
Quasi real-time model for security of water distribution network / Modèle quasi-temps réel pour la sécurité des réseaux d’alimentation en eau potableUng, Hervé 05 February 2016 (has links)
Le but de cette thèse est de modéliser la propagation d’un contaminant au sein d’un réseau d’eau potable muni de capteurs temps réel. Elle comporte les trois axes de développement suivant: la résolution des équations de transport, celle du problème d’identification des sources de contamination et le placement des capteurs.Le transport d’un produit chimique est modélisé dans un réseau d’eau potable par l’équation de transport réaction 1-D avec l’hypothèse de mélange parfait aux noeuds. Il est proposé d’améliorer sa prédiction par l’ajout d’un modèle de mélange imparfait aux jonctions double T et d’un modèle de dispersion prenant en compte un profil de vitesse 3-D et la diffusion radiale. Le premier modèle est créé à l’aide d’un plan d’expériences avec triangulation de Delaunay, de simulations CFD, et de la méthode d’interpolation krigeage. Le second utilise les équations adjointes du problème de transport avec l’ajout de particules évoluant à l’aide d’une marche aléatoire, cette dernière modélisant la diffusion radiale dans la surface droite du tuyau.Le problème d’identification des sources consiste, à l’aide de réponses positives ou négatives à la contamination des noeuds capteurs, à trouver l’origine, le temps d’injection et la durée de la contamination. La résolution de ce problème inverse est faite par la résolution des équations de transport adjointes par formulation backtracking. La méthode donne la liste des sources potentielles ainsi que le classement de celles-ci selon leur probabilité d’être la vraie source de contamination. Elle s’exprime en fonction de combien, en pourcentage, cette source potentielle peut expliquer les réponses positives aux capteurs.Le placement des capteurs est optimisé pour l’identification des sources. L’objectif est la maximisation du potentiel de détection de la véritable source de contamination. Deux résolutions sont testées. La première utilise un algorithme glouton combiné à une méthode de Monte Carlo.La seconde utilise une méthode de recherche locale sur graphe.Finalement les méthodes sont appliquées à un cas test réel avec dans l’ordre : le placement des capteurs, l’identification de la source de contamination et l’estimation de sa propagation. / The aim of this thesis is to model the propagation of a contaminant inside a water distribution network equipped with real time sensors. There are three research directions: the solving of the transport equations, the source identification and the sensor placement. Classical model for transport of a chemical product in a water distribution network isusing 1D-advection-reaction equations with the hypothesis of perfect mixing at junctions. It isproposed to improve the predictions by adding a model of imperfect mixing at double T-junctions and by considering dispersion effect in pipes which takes into account a 3-D velocity profile. The first enhancement is created with the help of a design of experiment based on the Delaunay triangulation, CFD simulations and the interpolation method Kriging. The second one uses the adjoint formulation of the transport equations applied with an algorithm of particle backtracking and a random walk, which models the radial diffusion in the cross-section of a pipe.The source identification problem consists in finding the contamination origin, itsinjection time and its duration from positive and negative responses given by the sensors. The solution to this inverse problem is computed by solving the adjoint transport equations with a backtracking formulation. The method gives a list of potential sources and the ranking of thosemore likely to be the real sources of contamination. It is function of how much, in percentage, they can explain the positive responses of the sensors.The sensor placement is chosen in order to maximize the ranking of the real source of contamination among the potential sources. Two solutions are proposed. The first one uses agreedy algorithm combined with a Monte Carlo method. The second one uses a local search method on graphs. Finally the methods are applied to a real test case in the following order: the sensor placement, the source identification and the estimation of the contamination propagation.
|
36 |
Azure App Service Plan Optimization : Cloud Resource optimizationFalck, Oscar, Wass, Linus January 2024 (has links)
At Halmstad University a project was developed to provide recommendations forupgrading and downgrading the cloud resource app service plan based on the customersusage over the last 30 days. In today’s day and age, cloud resources and services are oftenquite expensive and offers a variety of different plans which can make it overwhelmingfor the customer to easily choose which tier they need for their plan. The result of thisscript indicate that the cloud users should consider changing subscription tier based onhow the historical data of their usage of the plan has looked like during the last 30 days.The proposed algorithm suggests an upgrade of a tier if the plan is overutilized andsuggest a downgrade of a tier if the plan is underutilized. The developed PowerShell codeuses the First-Fit and the Rule-based algorithmic approach from the related workresearched in the paper. The result found was that the code was able to give suitablerecommendations to scale up and down tiers for plans which were under and overutilizedbased on the percentual utilization rules set up and Legacy/DEV SKU mapping. Theresults obtained showed that the suggested plan can reduce costs by up to 30% and giveroughly 438.2% more performance per $USD spent. / Vid Högskolan i Halmstad utvecklades ett projekt för att ge förslag på uppgraderingaroch nedgraderingar av molnresursern app service plan baserat på användarens senaste 30dagars användning. Då dagens molnresurser och tjänster ofta är dyra och erbjuder ettöverflöd av planer, kan det vara förvirrande för användare att välja rätt nivå för sinabehov. Projektet föreslår att användarna ska överväga att byta plan beroende på hur denhistoriska datan har sett ut för planens användning, där en uppgradering rekommenderasom tjänsten är överanvänd och en nedgradering om planen är underanvänd. Denutvecklade PowerShell koden använder sig av First-fit och det regelbaserade algoritmtypen som utvecklades med inspiration från litteraturstudien. Resultatet av projektetindikerar att koden kunde ge optimala upp och ned skalnings rekommendationer beroendepå de olika procentuella trösklarna satta samt mappningen av Legacy och utvecklingstiers. Analyseringen av resultatet pekar på att det går att spara runt 30% på app serviceplan kostnaderna samt att app service planerna får 438,2% mer prestanda per spenderad$USD i jämförelse med nuvarande planen.
|
37 |
Energy-aware scheduling : complexity and algorithmsRenaud-Goud, Paul 05 July 2012 (has links) (PDF)
In this thesis we have tackled a few scheduling problems under energy constraint, since the energy issue is becoming crucial, for both economical and environmental reasons. In the first chapter, we exhibit tight bounds on the energy metric of a classical algorithm that minimizes the makespan of independent tasks. In the second chapter, we schedule several independent but concurrent pipelined applications and address problems combining multiple criteria, which are period, latency and energy. We perform an exhaustive complexity study and describe the performance of new heuristics. In the third chapter, we study the replica placement problem in a tree network. We try to minimize the energy consumption in a dynamic frame. After a complexity study, we confirm the quality of our heuristics through a complete set of simulations. In the fourth chapter, we come back to streaming applications, but in the form of series-parallel graphs, and try to map them onto a chip multiprocessor. The design of a polynomial algorithm on a simple problem allows us to derive heuristics on the most general problem, whose NP-completeness has been proven. In the fifth chapter, we study energy bounds of different routing policies in chip multiprocessors, compared to the classical XY routing, and develop new routing heuristics. In the last chapter, we compare the performance of different algorithms of the literature that tackle the problem of mapping DAG applications to minimize the energy consumption.
|
38 |
Combining checkpointing and other resilience mechanisms for exascale systems / L'utilisation conjointe de mécanismes de sauvegarde de points de reprise (checkpoints) et d'autres mécanismes de résilience pour les systèmes exascalesBentria, Dounia 10 December 2014 (has links)
Dans cette thèse, nous nous sommes intéressés aux problèmes d'ordonnancement et d'optimisation dans des contextes probabilistes. Les contributions de cette thèse se déclinent en deux parties. La première partie est dédiée à l’optimisation de différents mécanismes de tolérance aux pannes pour les machines de très large échelle qui sont sujettes à une probabilité de pannes. La seconde partie est consacrée à l’optimisation du coût d’exécution des arbres d’opérateurs booléens sur des flux de données.Dans la première partie, nous nous sommes intéressés aux problèmes de résilience pour les machines de future génération dites « exascales » (plateformes pouvant effectuer 1018 opérations par secondes).Dans le premier chapitre, nous présentons l’état de l’art des mécanismes les plus utilisés dans la tolérance aux pannes et des résultats généraux liés à la résilience.Dans le second chapitre, nous étudions un modèle d’évaluation des protocoles de sauvegarde de points de reprise (checkpoints) et de redémarrage. Le modèle proposé est suffisamment générique pour contenir les situations extrêmes: d’un côté le checkpoint coordonné, et de l’autre toute une famille de stratégies non-Coordonnées. Nous avons proposé une analyse détaillée de plusieurs scénarios, incluant certaines des plateformes de calcul existantes les plus puissantes, ainsi que des anticipations sur les futures plateformes exascales.Dans les troisième, quatrième et cinquième chapitres, nous étudions l'utilisation conjointe de différents mécanismes de tolérance aux pannes (réplication, prédiction de pannes et détection d'erreurs silencieuses) avec le mécanisme traditionnel de checkpoints et de redémarrage. Nous avons évalué plusieurs modèles au moyen de simulations. Nos résultats montrent que ces modèles sont bénéfiques pour un ensemble de modèles d'applications dans le cadre des futures plateformes exascales.Dans la seconde partie de la thèse, nous étudions le problème de la minimisation du coût de récupération des données par des applications lors du traitement d’une requête exprimée sous forme d'arbres d'opérateurs booléens appliqués à des prédicats sur des flux de données de senseurs. Le problème est de déterminer l'ordre dans lequel les prédicats doivent être évalués afin de minimiser l'espérance du coût du traitement de la requête. Dans le sixième chapitre, nous présentons l'état de l'art de la seconde partie et dans le septième chapitre, nous étudions le problème pour les requêtes exprimées sous forme normale disjonctive. Nous considérons le cas plus général où chaque flux peut apparaître dans plusieurs prédicats et nous étudions deux modèles, le modèle où chaque prédicat peut accéder à un seul flux et le modèle où chaque prédicat peut accéder à plusieurs flux. / In this thesis, we are interested in scheduling and optimization problems in probabilistic contexts. The contributions of this thesis come in two parts. The first part is dedicated to the optimization of different fault-Tolerance mechanisms for very large scale machines that are subject to a probability of failure and the second part is devoted to the optimization of the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. In the first chapter, we present the related work of the first part and then we introduce some new general results that are useful for resilience on exascale systems.In the second chapter, we study a unified model for several well-Known checkpoint/restart protocols. The proposed model is generic enough to encompass both extremes of the checkpoint/restart space, from coordinated approaches to a variety of uncoordinated checkpoint strategies. We propose a detailed analysis of several scenarios, including some of the most powerful currently available HPC platforms, as well as anticipated exascale designs.In the third, fourth, and fifth chapters, we study the combination of different fault tolerant mechanisms (replication, fault prediction and detection of silent errors) with the traditional checkpoint/restart mechanism. We evaluated several models using simulations. Our results show that these models are useful for a set of models of applications in the context of future exascale systems.In the second part of the thesis, we study the problem of minimizing the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. The problem is to determine the order in which predicates should be evaluated so as to shortcut part of the query evaluation and minimize the expected cost.In the sixth chapter, we present the related work of the second part and in the seventh chapter, we study the problem for queries expressed as a disjunctive normal form. We consider the more general case where each data stream can appear in multiple predicates and we consider two models, the model where each predicate can access a single stream and the model where each predicate can access multiple streams.
|
39 |
Sledování spektra a optimalizace systémů s více nosnými pro kognitivní rádio / Spectrum sensing and multicarrier systems optimization for cognitive radioPovalač, Karel January 2012 (has links)
The doctoral thesis deals with spectrum sensing and subsequent use of the frequency spectrum by multicarrier communication system, which parameters are set on the basis of the optimization technique. Adaptation settings can be made with respect to several requirements as well as state and occupancy of individual communication channels. The system, which is characterized above is often referred as cognitive radio. Equipments operating on cognitive radio principles will be widely used in the near future, because of frequency spectrum limitation. One of the main contributions of the work is the novel usage of the Kolmogorov – Smirnov statistical test as an alternative detection of primary user signal presence. The new fitness function for Particle Swarm Optimization (PSO) has been introduced and the Error Vector Magnitude (EVM) parameter has been used in the adaptive greedy algorithm and PSO optimization. The dissertation thesis also incorporates information about the reliability of the frequency spectrum sensing in the modified greedy algorithm. The proposed methods are verified by the simulations and the frequency domain energy detection is implemented on the development board with FPGA.
|
40 |
Energy-aware scheduling : complexity and algorithms / Ordonnancement sous contrainte d'énergie : complexité et algorithmesRenaud-Goud, Paul 05 July 2012 (has links)
Dans cette thèse, nous nous sommes intéressés à des problèmes d'ordonnancement sous contrainte d'énergie, puisque la réduction de l'énergie est devenue une nécessité, tant sur le plan économique qu'écologique. Dans le premier chapitre, nous exhibons des bornes strictes sur l'énergie d'un algorithme classique qui minimise le temps d'exécution de tâches indépendantes. Dans le second chapitre, nous ordonnançons plusieurs applications chaînées de type « streaming », et nous étudions des problèmes contraignant l'énergie, la période et la latence. Nous effectuons une étude de complexité exhaustive, et décrivons les performances de nouvelles heuristiques. Dans le troisième chapitre, nous étudions le problème de placement de répliques dans un réseau arborescent. Nous nous plaçons dans un cadre dynamique, et nous bornons à minimiser l'énergie. Après une étude de complexité, nous confirmons la qualité de nos heuristiques grâce à un jeu complet de simulations. Dans le quatrième chapitre, nous revenons aux applications « streaming », mais sous forme de graphes série-parallèles, et nous tentons de les placer sur un processeur multi-cœur. La découverte d'un algorithme polynomial sur un problème simple nous permet la conception d'heuristiques sur le problème le plus général dont nous avons établi la NP-complétude. Dans le cinquième chapitre, nous étudions des bornes énergétiques de politiques de routage dans des processeurs multi-cœurs, en comparaison avec le routage classique XY, et développons de nouvheuristiques de routage. Dans le dernier chapitre, nous étudions expérimentalement le placement d'applications sous forme de DAG sur des machines réelles. / In this thesis we have tackled a few scheduling problems under energy constraint, since the energy issue is becoming crucial, for both economical and environmental reasons. In the first chapter, we exhibit tight bounds on the energy metric of a classical algorithm that minimizes the makespan of independent tasks. In the second chapter, we schedule several independent but concurrent pipelined applications and address problems combining multiple criteria, which are period, latency and energy. We perform an exhaustive complexity study and describe the performance of new heuristics. In the third chapter, we study the replica placement problem in a tree network. We try to minimize the energy consumption in a dynamic frame. After a complexity study, we confirm the quality of our heuristics through a complete set of simulations. In the fourth chapter, we come back to streaming applications, but in the form of series-parallel graphs, and try to map them onto a chip multiprocessor. The design of a polynomial algorithm on a simple problem allows us to derive heuristics on the most general problem, whose NP-completeness has been proven. In the fifth chapter, we study energy bounds of different routing policies in chip multiprocessors, compared to the classical XY routing, and develop new routing heuristics. In the last chapter, we compare the performance of different algorithms of the literature that tackle the problem of mapping DAG applications to minimize the energy consumption.
|
Page generated in 0.2054 seconds