Spelling suggestions: "subject:"multiobjectifs"" "subject:"l'objectifs""
11 |
METHODES ET OUTILS LOGICIELS D'AIDE AU DIMENSIONNEMENT. APPLICATION AUX COMPOSANTS MAGNETIQUES ET AUX FILTRES PASSIFSMagot, David 28 September 2004 (has links) (PDF)
Les logiciels d'optimisation constituent une aide au dimensionnement des dispositifs, susceptible d'améliorer la productivité des concepteurs dans l'industrie. Ces logiciels présentent néanmoins certaines limitations, découlant des méthodes d'optimisation utilisées ou liées à la modélisation du dispositif à dimensionner, desquelles il est possible de s'affranchir. Ainsi, l'adjonction à un tel logiciel de méthodes d'optimisation existantes, par ailleurs adaptées au contexte applicatif des composants magnétiques, permet au concepteur de considérer plusieurs objectifs simultanément ou d'intégrer les bases de données de fournisseurs. Une démarche de modélisation basée sur l'emploi de paramètres calculés à partir d'extrema de fonctions autorise quant à elle la prise en compte de manière unifiée des tolérances lors de l'optimisation ainsi que des gabarits, qui caractérisent les filtres électroniques par exemple. Un mode de calcul analytique des inductances de fuite des transformateurs est également proposé, afin d'améliorer la modélisation a priori de ce type de composant aux formats divers.
|
12 |
Réglage Coordonné de Tension dans les Réseaux de Distribution à l'aide de la Production DécentraliséeRichardot, Olivier 10 October 2006 (has links) (PDF)
Réglage Coordonné de Tension dans les Réseaux de Distribution à l'aide de la Production Décentralisée<br />Les réseaux électriques français et européen connaissent depuis quelques années de profondes mutations dues à des bouleversements à l'échelle internationale des politiques énergétiques. Celles-ci conduisent aujourd'hui à une accélération du phénomène d'insertion de production décentralisée d'électricité, généralement désignée sous le terme de "génération d'énergie dispersée", ou GED, dans les réseaux de distribution. Dans cette thèse, une analyse des méthodes de réglage de tension existantes au niveau du réseau de transport, ainsi que des moyens de réglage actuels dans les réseaux de distribution, est à l'origine du développement d'un nouveau système de réglage coordonné de tension pour les réseaux de distribution (D-RCT) utilisant les GED. Ce réglage, basé sur la mutualisation des capacités individuelles des GED, permet de réguler la tension de certains nœuds stratégiques du réseau dénommés "nœuds pilotes" par une gestion optimale de l'énergie réactive. Cette gestion, qui repose sur une optimisation multi objectifs des consignes de tension des GED à l'aide de matrices de sensibilité, présente l'avantage de soulager l'action de réglage de tension du réseau de transport en limitant les transits de puissance réactive entre le transport et la distribution. La validation du D-RCT par application sur un réseau test et par une série d'études paramétriques, ainsi qu'une comparaison avec un réglage local auto – adaptatif, laissent entrevoir la possibilité d'une nouvelle stratégie de réglage de tension hybride.
|
13 |
Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifsJamain, Florian 27 June 2014 (has links) (PDF)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l'intractabilité de problèmes d'optimisation multi-objectifs.Dans un premier temps, nous essayons d'apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l'ensemble des points non dominés de toute instance de problèmes d'optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s'inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d'abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs.
|
14 |
Modèles et méthodes numériques les études conceptuelles d'aéronefs à voilure tournanteTremolet, Arnault 22 October 2013 (has links) (PDF)
La variété des concepts d'aéronef à voilure tournante n'a d'égal que l'étendue de leur hamp applicatif. Dès lors, se pose une question essentielle : quel concept est le plus adapté face à un certain nombre de missions ou de spécifications ? Une partie essentielle de la réponse réside dans l'étude des performances de vol et des impacts environnementaux de l'appareil. Le projet de recherche fédérateur C.R.E.A.T.I.O.N. pour " Concepts of Rotorcraft Enhanced Assessment Through Integrated Optimization Network " a pour but de mettre en place une plateforme numérique de calculs multidisciplinaires et multiniveaux capables d'évaluer de tels critères. La multidisciplinarité fait écho aux différentes disciplines associées à l'évaluation des giravions tandis que l'aspect multi-niveaux reflète la possibilité d'étudier un concept quelque soit l'état des connaissances sur ce dernier. La thèse s'inscrit dans ce projet. Une première implication est le développement de modèles de performances de vol et leur intégration dans des boucles de calcul multidisciplinaires. Au-delà de cet aspect de modélisation physique, la multidisciplinarité touche aussi le champ des mathématiques appliquées. Les méthodes d'optimisation multi objectifs multi paramètres, l'aide à la décision pour la sélection d'un optimum de meilleur compromis, l'exploration de bases de données, la création de modèles réduits sont autant de thématiques explorées dans cette thèse.
|
15 |
Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancementBouguerra, Mohamed slim 02 April 2012 (has links) (PDF)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.
|
16 |
Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement / Fault tolerance in the parallel and distributed environments : optimizing the checkpoint restart strategy and schedulingBouguerra, Mohamed Slim 02 April 2012 (has links)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs. / The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.
|
17 |
Apports et voies d'amélioration de la représentation des glaciers et de leur évolution au sein d'un modèle hydrologique / Contributions and ways of improvement of the representation of glaciers and their evolution in a hydrological modelGsell, Pierre-Stéphane 28 November 2014 (has links)
Les environnements montagneux sont un lieu privilégié d'échange d'eau et d'énergie. Les rivières de montagne alimentent en eau 40% de la population mondiale et sont sujettes à une pression démographique et climatique important. Dans ce contexte, la compréhension des processus météorologiques, hydrologiques et hydrogéologiques est fondamentale pour la gestion globale de la ressource en eau. L'étude, présentée dans ce manuscrit de thèse, se positionne au sein des environnements montagneux où l'hydrologie est influencée par le couvert neigeux saisonnier et par les glaciers, et propose une approche de modélisation interdisciplinaire afin d'améliorer la compréhension des processus en jeu.Aujourd'hui, si les modèles sont capables de simuler le débit sur les rivières de montagnes jaugées sous influence nivale et glaciaire, un certain nombre d'incertitudes persistent quant à l'utilisation de tels modèles hors de leur conditions de validation (en réponse à un climat différent ou sur un domaine non-jaugé). La principale source d'incertitude est liée au manque de connaissance des précipitations en montagne, dont la mesure est rare et incertaine. C'est pourtant la principale composante du bilan hydrologique. A cet égard, nous proposons d'exploiter l'information fournie par la géométrie du couvert neigeux et des glaciers, en tant que “pluviomètres géants” à l'échelle de ces réservoirs, dans un modèle hydrologique à réservoirs conceptuels reposant sur la notion de bassin versant.L'information, hydrologique, nivale et glaciaire est évaluée dans un cadre de calibration multi-objectifs. Les résultats montrent que, dans cette configuration, la validation conjointe du modèle hydrologique par le débit journalier, le bilan de masse glaciaire annuel et la hauteur de neige locale journalier permet de réduire fortement l'incertitude sur le forçage météorologique journalier et d'améliorer la robustesse du modèle. Ce résultat préliminaire nous a permis de reconstruire, en conséquence, le bilan de masse local annuel à l'échelle des glaciers.Par ailleurs, la représentation des glaciers au sein d'un modèle hydrologique pose un certain nombre de défis, surtout dans la perspective de simuler les processus hydrologiques à l'échelle pluri-annuelle. En particulier, la prise en compte de l'évolution de la géométrie des glaciers au sein d'un modèle hydrologique est balbutiante. A cet égard, nous proposons, dans cette étude, des axes d'amélioration de la représentation des glaciers au sein d'un modèle hydrologique par un angle d'investigation géomorphologique. Cette approche a permis d'élaborer un modèle probabiliste permettant de décrire les surfaces englacées au sein d'un bassin versant selon une courbe de niveau. / Mountainous environments are a privileged place of water and energy exchange. Mountainous rivers feed about 40% of the world population and are subjected to climate change and a growing demography. In this context, the comprehension of meteorological, hydrological and hydrogeological processes is essential for a better overall management of water resource. This PhD study is focused squarely on the mountainous environments where hydrology is influenced by snow cover and glaciers, and introduces a multidisciplinary modeling approach in order to improve our comprehension of the process involved.Today, hydrological models are able to simulate gauged mountainous river streamflows under the influence of snow and glaciers but some uncertainties remain when applying such models out of their calibration phase (for instance in response to a different climate or on a ungauged basin). The main uncertainty source is the lack of knowledge of mountainous precipitations, whose measure is sparse and uncertain. It remains the principal component of the hydrological budget though. In this study, we suggest using the meteorological information provided by snow cover and glaciers as “giant pluviometers” to their reservoir scales, with a conceptual reservoir model associated with the concept of watershed.The information provided by hydrology processes, snow and glaciers is assessed in a multi-objective calibration phase. Results show that, in this configuration, the joint validation of the hydrological model by daily streamflow, annual mass balance and daily local snow depth reduces significantly the uncertainty on the meteorological forcing and improves the model robustness. This preliminary result has motivated, consequently, the local annual mass balance of the glaciers.Also, the representation of glaciers in a hydrological model raises a certain amount of issues, especially in the perspective of simulation long-term hydrological processes. In particular, the consideration of the evolution of the glacier geometry is at an early stage. To this end, we propose, in this study, ways of improvements for the representation of glaciers from a geomorphological perspective. This approach allowed us to build a probabilistic model able to describe the glaciated surfaces within a watershed according to a given topographic contour line.
|
18 |
Développement de Graphe de Connectivité Différentiel pour Caractérisation des Régions Cérébrales Impliquées dans l'EpilepsieAmini, Ladan 21 December 2010 (has links) (PDF)
Les patients pharmaco-résistants sont des candidats pour la chirurgie de l'épilepsie. Le but de cette chirurgie est d'enlever les zones à l'origine de la crise (SOZ) sans créer de nouveaux déficits neurologiques. Pour localiser les SOZs, une des meilleures approches consiste à analyser des électroencéphalogrammes intracérébraux (iEEG). Toutefois, l'enregistrement des crises, qui sont des événements rares et critiques, est compliqué contrairement à l'enregistrement de décharges épileptiques intercritiques (IED), qui sont généralement très fréquentes et anodines. La prévision des SOZs, par estimation des régions à l'origine des IEDs, est donc une alternative très intéressante, et la question de savoir si l'estimation des régions IED peut être utile pour prédire les SOZs, a été au coeur de plusieurs études. Malgré des résultats intéressants, la question reste ouverte, notamment en raison du manque de fiabilité des résultats fournis par ces méthodes. L'objectif de cette thèse est de proposer une méthode robuste d'estimation des régions à l'origine des IEDs (notées LIED) par analyse d'enregistrements intracérébraux iEEG. Le point essentiel de cette nouvelle méthode repose sur la détermination d'un graphe de connectivité différentiel (DCG), qui ne conserve que les noeuds (électrodes) associées aux signaux iEEG qui changent de façon significative selon la présence ou l'absence d'IEDs. En fait, on construit plusieurs DCGs, chacun étant caractéristique d'une échelle obtenue après transformée en ondelettes. La fiabilitié statistiques des DCGs est obtenue à l'aide des tests de permutation. L'étape suivante consiste à mesurer les quantités d'information émise par chaque noeud, et d'associer à chaque connexion (arête) du graphe une orientation qui indique le transfert d'information du noeud source vers le noeud cible. Pour celà, nous avons introduit une nouvelle mesure nommée Local Information (LI), que nous avons comparée à des mesures classiques de graphes, et qui permet de définir de façon robuste les noeuds sources pour les graphes de chaque échelle. Les LIEDs sont finalement estimées selon une méthode d'optimisation multi-objectifs (de type Pareto, peu utilisée dans la communauté signal-image) construite à partir des valeurs des LI des DCG dans les différentes bandes de fréquences. La méthode proposée a été validée sur cinq patients épileptiques, qui ont subi une chirurgie d'exérèse et sont déclarés guéris. L'estimation des régions LIED a été comparée avec les SOZs détectées visuellement par l'épileptologue et celles détectées automatiquement par une méthode utilisant une stimulation destinée à provoquer des crises. La comparaison révèle des résultats congruents entre les SOZs et les régions LIED estimées. Ainsi, cette approche fournit des LIED qui devraient être des indications précieuses pour l'évaluation préopératoire en chirugie de l'épilepsie.
|
19 |
Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifs / Discrete representations of the nondominated set for multi-objective optimization problemsJamain, Florian 27 June 2014 (has links)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l’intractabilité de problèmes d’optimisation multi-objectifs.Dans un premier temps, nous essayons d’apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l’ensemble des points non dominés de toute instance de problèmes d’optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s’inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d’abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs. / The goal of this thesis is to propose new general methods to get around the intractability of multi-objective optimization problems.First, we try to give some insight on this intractability by determining an, easily computable, upper bound on the number of nondominated points, knowing the number of values taken on each criterion. Then, we are interested in producingsome discrete and tractable representations of the set of nondominated points for each instance of multi-objective optimization problems. These representations must satisfy some conditions of coverage, i.e. providing a good approximation, cardinality, i.e. it does not contain too many points, and if possible spacing, i.e. it does not include any redundancies. Starting from works aiming to produce ε-Pareto sets of small size, we first propose a direct extension of these works then we focus our research on ε-Pareto sets satisfying an additional condition of stability. Formally, we consider special ε-Pareto sets, called (ε, ε′)-kernels, which satisfy a property of stability related to ε′. We give some general results on (ε, ε′)-kernels and propose some polynomial time algorithms that produce small (ε, ε′)-kernels for the bicriteria case and we give some negative results for the tricriteria case and beyond.
|
20 |
Modèles de parallélisme pour les métaheuristiques multi-objectifs / Parallelism models for multi-objective metaheuristicsMaziere, Florian 17 January 2019 (has links)
L’objectif de ce projet de trois ans est de proposer des avancées conceptuelles et technologiques dans la résolution de problèmes d’ordonnancement du personnel. L’atteinte de cet objectif passe par la proposition de nouveaux algorithmes basés sur les métaheuristiques et leur implémentation sur les architectures de calcul haute performance. Ce projet s’inscrit en complémentarité du projet HORUS qui bénéficie d’une subvention ANR et qui réunit les expertises scientifiques de deux laboratoires universitaires spécialisés en optimisation et en calcul parallèle : l’équipe SysCom du laboratoire CReSTIC de l’URCA et l’équipe CaRO du laboratoire PRiSM de l’UVSQ. Les avancées technologiques proposées s’appuient également sur les moyens de calcul haute performance offerts par le Centre de Calcul Régional Champagne-Ardenne. / .Many academic and industrial optimization problems are multi-objective and have been of particular interest to researchers in recent years. These problems usually do not have a single optimal solution but a set of best trade-off solutions which form the so-called Pareto front in the objective space. In order to approximate the Pareto front, multi-objective evolutionary algorithms (MOEAs) have been largely investigated in the fields of continuous and combinatorial optimization. Contrary to some classical algorithms, MOEAs have the ability to provide a number of solutions in one single run and are less sensitive to the shape of the Pareto front.As they often require a high amount of computing resources to explore large portions of the search space and handle complex real-life constraints, MOEAs could greatly benefit from today's high-performance computing architectures. Although significant progress has been made in recent years in the design and improvement of parallel models for evolutionary algorithms, most of these models have limited scalability and ability to solve various problems. In fact, solving multi-objective combinatorial optimization problems efficiently on a large number of processors remains a challenge today.This thesis aims to propose an island model which is based on objective space division. The main features of the proposed model are the following (i) An organizer has a global view of the current search via a global archive (ii) Asynchronous cooperation between islands, especially for the exchange of local archives with the organizer to limit model overheads (iii)Control islands to guide the exploration of the search space and improve diversity (iv) A periodic use of a specific local search procedure to improve convergence. Extensive experiments have been conducted to evaluate the performance of the approach and more particularly of each component in the resolution of two classical combinatorial problems, the travelling salesman problem and quadratic assignment problem. Extensibility and quality of the solutions are analyzed compared to state-of-the-art parallel models.
|
Page generated in 0.054 seconds