Spelling suggestions: "subject:"quale""
51 |
Méthodes d'éléments finis pour le problème de changement de phase en milieux composites / Finite element methods for the phase change problem in composite mediaMint brahim, Maimouna 30 November 2016 (has links)
Dans ces travaux de thèse on s’intéresse au développement d’un outil numérique pour résoudre le problème de conduction instationnaire avec changement de phase dans un milieu composite constitué d’une mousse de graphite infiltrée par un matériau à changement de phase tel que le sel, dans le contexte du stockage de l’énergie thermique solaire.Au chapitre 1, on commence par présenter le modèle sur lequel on va travailler. Il estséparé en trois sous-parties : un problème de conduction de chaleur dans la mousse, un problème de changement de phase dans les pores remplis de sel et une condition de résistance thermique de contact entre les deux matériaux qui est traduite par une discontinuité du champ de température.Au chapitre 2, on étudie le problème stationnaire de conduction thermique dans un milieu composite avec résistance de contact. Ceci permet de se focaliser sur la plus grande difficulté présente dans le problème qui est le traitement de la condition de saut à l’interface.Deux méthodes d’éléments finis sont proposées pour résoudre ce problème : une méthode basée sur les éléments finis Lagrange P1 et une méthode hybride-duale utilisant les éléments finis Raviart-Thomas d’ordre 0 et P0. L’analyse numérique des deux méthodes est effectuée et les résultats de tests numériques attestent des efficacités des deux méthodes [10]. Les matériaux à changement de phase qu’on étudie dans le cadre de cette thèse sont des matériaux pures, par conséquent le changement de phase s’effectue en une valeur de température fixe qui est la température de fusion. Ceci est modélisé par un saut dans la fonction fraction liquide et par conséquent dans la fonction enthalpie du matériau. Cette discontinuité représente une difficulté numérique supplémentaire qu’on propose de surmonter en introduisant un intervalle de régularisation autour de la température de fusion.Cette procédure est présentée dans le chapitre 3 où une étude analytique et numérique montre que l’erreur sur la température se comporte comme " en dehors de la zone de mélange, où " est la largeur de l’intervalle de régularisation. Cependant, à l’intérieur l’erreur se comporte comme p " et on montre que cette estimation est optimale. Cette diminution de vitesse de convergence est due à l’énergie qui reste bloquée dans la zone de mélange [58].Dans le chapitre 4 on présente quatre des schémas les plus utilisés pour le traitement de la non-linearité due au changement de phase: mise à jour du terme source, linéarisation de l’enthalpie, la capacité thermique apparente et le schéma de Chernoff. Différents tests numériques sont réalisés afin de tester et comparer ces quatre méthodes pour différents types de problèmes. Les résultats montrent que le schéma de linéarisation de l’enthalpie est le plus précis à chaque pas de temps tans dis que le schéma de la capacité thermique apparente donne de meilleurs résultats au bout d’un certain temps de calcul. Cela indique que si l’on s’intéresse aux états transitoires du matériaux le premier schéma est lemeilleur choix. Cependant, si l’on s’intéresse au comportement thermique asymptotique du matériau le second schéma est plus adapté. Les résultats montrent également que le schéma de Chernoff est le plus rapide parmi les quatre schémas en terme de temps de calcul et donne des résultats comparables à ceux des deux plus précis.Enfin, dans le chapitre 5 on utilise le schéma de Chernoff avec la méthode d’éléments finis hybride-duale Raviart-Thomas d’ordre 0 et P0 pour résoudre le problème non-linéaire de conduction thermique dans un milieu composite réel avec matériau à changement de phase. Le but étant de déterminer si un matériau composite avec une distribution uniforme de pores est assimilable à un matériau à changement de phase homogènes avec des propriétés thermo-physiques équivalentes. Pour toutes les expériences numériques exposées dans ce manuscrit on a utilisé le logiciel libre d’éléments finis FreeFem++ [41]. / In this thesis we aim to develop a numerical tool that allow to solve the unsteady heatconduction problem in a composite media with a graphite foam matrix infiltrated witha phase change material such as salt, in the framework of latent heat thermal energystorage.In chapter 1, we start by explaining the model that we are studying which is separated in three sub-parts : a heat conduction problem in the foam, a phase change problem in the pores of the foam which are filled with salt and a contact resistance condition at the interface between both materials which results in a jump in the temperature field.In chapter 2, we study the steady heat conduction problem in a composite media withcontact resistance. This allow to focus on the main difficulty here which is the treatment of the thermal contact resistance at the interface between the carbon foam and the salt. Two Finite element methods are proposed in order to solve this problem : a finite element method based on Lagrange P1 and a hybrid dual finite element method using the lowest order Raviart-Thomas elements for the heat flux and P0 for the temperature. The numerical analysis of both methods is conducted and numerical examples are given to assert the analytic results. The work presented in this chapter has been published in the Journal of Scientific Computing [10].The phase change materials that we study here are mainly pure materials and as a consequence the change in phase occurs at a single point, the melting temperature. This introduces a jump in the liquid fraction and consequently in the enthalpy. This discontinuity represents an additional numerical difficulty that we propose to overcome by introducing a smoothing interval around the melting temperature. This is explained in chapter 3 where an analytical and numerical study shows that the error on the temperature behaves like " outside of the mushy zone, where _ is the width of the smoothing interval. However, inside the error behaves like p " and we prove that this estimation is optimal due to the energy trapped in the mushy zone. This chapter has been published in Communications in Mathematical Sciences [58].The next step is to determine a suitable time discretization scheme that allow to handle the non-linearity introduced by the phase change. For this purpose we present in chapter 4 four of the most used numerical schemes to solve the non-linear phase change problem : the update source method, the enthalpy linearization method, the apparent heat capacity method and the Chernoff method. Various numerical tests are conducted in order to test and compare these methods for various types of problems. Results show that the enthalpy linearization is the most accurate at each time step while the apparent heat capacity gives better results after a given time. This indicates that if we are interestedin the transitory states the first scheme is the best choice. However, if we are interested in the asymptotic thermal behavior of the material the second scheme is better. Results also show that the Chernoff scheme is the fastest in term of calculation time and gives comparable results to the one given by the first two methods.Finally, in chapter 5 we use the Chernoff method combined with the hybrid-dual finiteelement method with P0 and the lowest order Raviart-Thomas elements to solve thenon-linear heat conduction problem in a realistic composite media with a phase change material. Numerical simulations are realised using 2D-cuts of X-ray images of two real graphite matrix foams infiltrated with a salt. The aim of these simulations is to determine if the studied composite materials could be assimilated to an equivalent homogeneous phase change material with equivalent thermo-physical properties. For all simulationsconducted in this work we used the free finite element software FreeFem++ [41].
|
52 |
Equilibres corrélés, jeux d'évolution et dynamique de populationsViossat, Yannick 15 December 2005 (has links) (PDF)
La thèse se compose de trois parties dont les deux premières se rattachent à la théorie des jeux et la troisième à la biologie théorique. La première partie est consacrée à l'étude des équilibres corrélés. Après avoir étudié les propriétés de la techique de réduction duale et développé ses applications, nous utilisons cette technique pour montrer que l'ensemble des jeux ayant un unique équilibre corrélé est ouvert, ce qui n'est pas vrai des équilibres de Nash, et pour caractériser la classe des jeux dont le polytope des équilibres corrélés contient un équilibre de Nash dans son intérieur relatif. Cette classe étend et généralise celle des jeux à somme nulle. Deux autres contributions sont également présentées.<br /> <br />La deuxième partie est consacrée aux jeux d'évolution, et étudie le lien entre l'issue de processus évolutifs et les concepts stratégiques statiques. Nous montrons notamment que les dynamiques d'évolution peuvent éliminer toutes les stratégies appartennant au support d'au moins un équilibre corrélé, et ce pour n'importe quelle dynamique monotone et pour des ensembles ouverts de jeux et de conditions initiales. L'élimination de toutes les stratégies dans le support des équilibres de Nash se produit sous toutes les dynamiques d'adaptation myope régulières et, sous la dynamique des réplicateurs ou la dynamique de meilleure réponse, à partir de presque toutes les conditions initiales. <br /><br />La troisième partie, co-écrite, étudie les déterminants de la séparation entre lignée germinale et lignée somatique chez les algues vertes volvocales.
|
53 |
Proximal Splitting Methods in Nonsmooth Convex OptimizationHendrich, Christopher 25 July 2014 (has links) (PDF)
This thesis is concerned with the development of novel numerical methods for solving nondifferentiable convex optimization problems in real Hilbert spaces and with the investigation of their asymptotic behavior. To this end, we are also making use of monotone operator theory as some of the provided algorithms are originally designed to solve monotone inclusion problems.
After introducing basic notations and preliminary results in convex analysis, we derive two numerical methods based on different smoothing strategies for solving nondifferentiable convex optimization problems. The first approach, known as the double smoothing technique, solves the optimization problem with some given a priori accuracy by applying two regularizations to its conjugate dual problem. A special fast gradient method then solves the regularized dual problem such that an approximate primal solution can be reconstructed from it. The second approach affects the primal optimization problem directly by applying a single regularization to it and is capable of using variable smoothing parameters which lead to a more accurate approximation of the original problem as the iteration counter increases. We then derive and investigate different primal-dual methods in real Hilbert spaces. In general, one considerable advantage of primal-dual algorithms is that they are providing a complete splitting philosophy in that the resolvents, which arise in the iterative process, are only taken separately from each maximally monotone operator occurring in the problem description. We firstly analyze the forward-backward-forward algorithm of Combettes and Pesquet in terms of its convergence rate for the objective of a nondifferentiable convex optimization problem. Additionally, we propose accelerations of this method under the additional assumption that certain monotone operators occurring in the problem formulation are strongly monotone. Subsequently, we derive two Douglas–Rachford type primal-dual methods for solving monotone inclusion problems involving finite sums of linearly composed parallel sum type monotone operators. To prove their asymptotic convergence, we use a common product Hilbert space strategy by reformulating the corresponding inclusion problem reasonably such that the Douglas–Rachford algorithm can be applied to it. Finally, we propose two primal-dual algorithms relying on forward-backward and forward-backward-forward approaches for solving monotone inclusion problems involving parallel sums of linearly composed monotone operators.
The last part of this thesis deals with different numerical experiments where we intend to compare our methods against algorithms from the literature. The problems which arise in this part are manifold and they reflect the importance of this field of research as convex optimization problems appear in lots of applications of interest.
|
54 |
Vom Innovationsimpuls zum Markteintritt. Theorie, Praxis, Methoden27 November 2014 (has links) (PDF)
Die Grenzregionen rund um die Zentren Bratislava und Wien gehören zu den am schnellsten wachsenden
Regionen in Europa - insbesondere die High-Tech-Industrie betreffend (www.contor-analyse.de). Ein
Erfolgsfaktor für kommerziell erfolgreiche High-Tech (Start Up) Unternehmen ist die frühzeitige
Identifikation von Nutzeranforderungen und Verkaufsargumenten bei Innovationen. Interdisziplinäre
Teams, die technisch und kaufmännisch ausgebildete Arbeitskräfte beinhalten, stellen die Basis für
unternehmerische Innovations-Erfolgsgeschichten dar.
Im August 2011 ist ein Team aus Forschern der Technischen
Universität Wien, der Wirtschaftsuniversität Wien, der Wirtschaftsuniversität Bratislava und des Inkubators INITS angetreten, High-Tech Unternehmen bei deren Markteintritt zu unterstützen und die universitäre Ausbildung von
Interessierten an Innovationen im B2B High-Tech-Bereich zu adaptieren. Das Projekt Grenzüberschreitendes HiTECH Center wurde gestartet (Projektlaufzeit 08/2011 bis 12/2013,
Förderprogramm ETC, creating the future: Programm zur grenzüberschreitenden Zusammenarbeit SLOWAKEI - ÖSTERREICH 2007-2013, www.hitechcentrum.eu). Zielsetzung war die Entwicklung einer Methodik für einen erfolgreichen Markteintritt in B2 B High-Tech-Märkten. Das Projekt wurde mit sieben Arbeitspaketen konzipiert. Arbeitspaket sechs betrifft eine Publikation der wichtigsten Lernergebnisse.
Die vorliegende Arbeit stellt dieses Ergebnis dar und wurde erst durch eine Projektverlängerung bis November 2014 ermöglicht.
Die Vorarbeiten zum Projekt und die erste Analysephase innerhalb der Projektlaufzeit zeigen eine Lücke
an Forschungsergebnissen zum Thema "Marketing Testbed" und von vergleichbaren interdisziplinären Lehrveranstaltungen an österreichischen Universitäten. Existierende Marketing- und Innovationslehrgänge beschäftigen sich in überwiegender Zahl mit B2C Themen und sind nicht interdisziplinär. Trotz der geografischen Nähe der beiden Länder Österreich und Slowakei ist die zu geringe Transparenz der Märkte - und der damit verbundenen Chancen - derzeit eine Barriere für eine schnellere Entwicklung dieser grenzüberschreitenden Region. Weiters besteht über die Grenzen hinaus
ein Mangel an interdisziplinär ausgebildetem Personal, das Marketingaufgaben der High-Tech-Anbieter effizient bearbeiten kann.
Dem Projektteam stellten sich daher unter anderem folgende Fragen: Mit welcher Methodik können High-Tech Start Up Unternehmen in frühen Innovationsphasen unterstützt werden, um einen erfolgreichen Markteintritt zu schaffen? Wie stark beeinflusst die Thematik "Multidisziplinäre
Kommunikation" den Prozess vom Innovationsimpuls zum Markteintritt? Wie können die Anforderungen der innovierenden High-Tech Firmen in die Universitätslehre integriert werden? Wie können interdisziplinäre Lehrformate - auch grenzüberschreitend - umgesetzt werden?
Das Projektteam konnte im Rahmen der Projektlaufz
eit ein erstes Regelwerk für Marketing Testbeds
entwickeln und dieses Wissen bereits in wissenschaftlichen Arbeiten und ersten Implementierungen anwenden. Insgesamt wurden am Institut für Marketing Management in Wien acht Arbeiten von Studierenden fertiggestellt (davon zwei Dissertationen). An der WU Bratislava wurden 17 studentische
Arbeiten abgeschlossen und sechs interdisziplinäre Projekte umgesetzt. Es fand ein intensive Wissensaustausch mit drei Synergieprojekten (INNOVMAT, DUO STARS, SMARTNET) statt und die Zwischenergebnisse des HiTECH Centrum Projekts waren die Basis für ein weiteres europäisches Projekt
(Projekt REALITY, Programm ERASMUS MUNDUS). Das Hauptergebnis des Projekts liegt in der Bestätigung der Wichtigkeit der multidisziplinären Kommunikation in allen Bereichen vom Innovationsimpuls zum Markteintritt. Für eine nachhaltige Wirkung der Projektergebnisse wird die
Gründung eines HiTECH Center Vereins sorgen, der sich mit den angestoßenen Forschungsthemen beschäftigt und High-Tech Start Ups in deren frühen Markteintrittsphasen unterstützt. (authors' abstract)
|
55 |
Digitaler Wissenstransfer in der beruflichen Bildung: Potentiale eines Online-BerichtsheftesJörke, Desireé, Vielstich, Melanie, Preissler, Anzhela 12 March 2021 (has links)
Durch den Einsatz digitaler Technologien ergeben sich auch im Rahmen der beruflichen Bildung neue Möglichkeiten zur digitalisierten Dokumentation von Wissen und Verfügbarmachung von Informationen für die beteiligten Alteurinnen und Akteure. Dieser Beitrag zeigt, inwiefern eine digitale Lernortkooperation unter Gesichtspunkten des Wissenstransfers mithilfe eines Online-Berichtsheftes umgesetzt werden kann. Dazu wird das vom BMBF geförderte Verbundprojekt ‚Diffusion digitaler Technologien in der beruflichen Bildung durch Lernortkooperation‘ (DiBBLok) vorgestellt und inblicke in die Ergebnisse einer quantiativen Strukturdatenanalyse des Online-Berichtsheftes BLok gegeben.
|
56 |
Proximal Splitting Methods in Nonsmooth Convex OptimizationHendrich, Christopher 17 July 2014 (has links)
This thesis is concerned with the development of novel numerical methods for solving nondifferentiable convex optimization problems in real Hilbert spaces and with the investigation of their asymptotic behavior. To this end, we are also making use of monotone operator theory as some of the provided algorithms are originally designed to solve monotone inclusion problems.
After introducing basic notations and preliminary results in convex analysis, we derive two numerical methods based on different smoothing strategies for solving nondifferentiable convex optimization problems. The first approach, known as the double smoothing technique, solves the optimization problem with some given a priori accuracy by applying two regularizations to its conjugate dual problem. A special fast gradient method then solves the regularized dual problem such that an approximate primal solution can be reconstructed from it. The second approach affects the primal optimization problem directly by applying a single regularization to it and is capable of using variable smoothing parameters which lead to a more accurate approximation of the original problem as the iteration counter increases. We then derive and investigate different primal-dual methods in real Hilbert spaces. In general, one considerable advantage of primal-dual algorithms is that they are providing a complete splitting philosophy in that the resolvents, which arise in the iterative process, are only taken separately from each maximally monotone operator occurring in the problem description. We firstly analyze the forward-backward-forward algorithm of Combettes and Pesquet in terms of its convergence rate for the objective of a nondifferentiable convex optimization problem. Additionally, we propose accelerations of this method under the additional assumption that certain monotone operators occurring in the problem formulation are strongly monotone. Subsequently, we derive two Douglas–Rachford type primal-dual methods for solving monotone inclusion problems involving finite sums of linearly composed parallel sum type monotone operators. To prove their asymptotic convergence, we use a common product Hilbert space strategy by reformulating the corresponding inclusion problem reasonably such that the Douglas–Rachford algorithm can be applied to it. Finally, we propose two primal-dual algorithms relying on forward-backward and forward-backward-forward approaches for solving monotone inclusion problems involving parallel sums of linearly composed monotone operators.
The last part of this thesis deals with different numerical experiments where we intend to compare our methods against algorithms from the literature. The problems which arise in this part are manifold and they reflect the importance of this field of research as convex optimization problems appear in lots of applications of interest.
|
57 |
Decentralized Algorithms for Wasserstein BarycentersDvinskikh, Darina 29 October 2021 (has links)
In dieser Arbeit beschäftigen wir uns mit dem Wasserstein Baryzentrumproblem diskreter Wahrscheinlichkeitsmaße sowie mit dem population Wasserstein Baryzentrumproblem gegeben von a Fréchet Mittelwerts von der rechnerischen und statistischen Seiten. Der statistische Fokus liegt auf der Schätzung der Stichprobengröße von Maßen zur Berechnung einer Annäherung des Fréchet Mittelwerts (Baryzentrum) der Wahrscheinlichkeitsmaße mit einer bestimmten Genauigkeit. Für empirische Risikominimierung (ERM) wird auch die Frage der Regularisierung untersucht zusammen mit dem Vorschlag einer neuen Regularisierung, die zu den besseren Komplexitätsgrenzen im Vergleich zur quadratischen Regularisierung beiträgt. Der Rechenfokus liegt auf der Entwicklung von dezentralen Algorithmen zurBerechnung von Wasserstein Baryzentrum: duale Algorithmen und Sattelpunktalgorithmen. Die Motivation für duale Optimierungsmethoden ist geschlossene Formen für die duale Formulierung von entropie-regulierten Wasserstein Distanz und ihren Derivaten, während, die primale Formulierung nur in einigen Fällen einen Ausdruck in geschlossener Form hat, z.B. für Gaußsches Maß. Außerdem kann das duale Orakel, das den Gradienten der dualen Darstellung für die entropie-regulierte Wasserstein Distanz zurückgibt, zu einem günstigeren Preis berechnet werden als das primale Orakel, das den Gradienten der (entropie-regulierten) Wasserstein Distanz zurückgibt. Die Anzahl der dualen Orakel rufe ist in diesem Fall ebenfalls weniger, nämlich die Quadratwurzel der Anzahl der primalen Orakelrufe. Im Gegensatz zum primalen Zielfunktion, hat das duale Zielfunktion Lipschitz-stetig Gradient aufgrund der starken Konvexität regulierter Wasserstein Distanz. Außerdem untersuchen wir die Sattelpunktformulierung des (nicht regulierten) Wasserstein Baryzentrum, die zum Bilinearsattelpunktproblem führt. Dieser Ansatz ermöglicht es uns auch, optimale Komplexitätsgrenzen zu erhalten, und kann einfach in einer dezentralen Weise präsentiert werden. / In this thesis, we consider the Wasserstein barycenter problem of discrete probability measures as well as the population Wasserstein barycenter problem given by a Fréchet mean from computational and statistical sides. The statistical focus is estimating the sample size of measures needed to calculate an approximation of a Fréchet mean (barycenter) of probability distributions with a given precision. For empirical risk minimization approaches, the question of the regularization is also studied along with proposing a new regularization which contributes to the better complexity bounds in comparison with the quadratic regularization. The computational focus is developing decentralized algorithms for calculating Wasserstein barycenters: dual algorithms and saddle point algorithms. The motivation for dual approaches is closed-forms for the dual formulation of entropy-regularized Wasserstein distances and their derivatives, whereas the primal formulation has a closed-form expression only in some cases, e.g., for Gaussian measures.Moreover, the dual oracle returning the gradient of the dual representation forentropy-regularized Wasserstein distance can be computed for a cheaper price in comparison with the primal oracle returning the gradient of the (entropy-regularized) Wasserstein distance. The number of dual oracle calls in this case will be also less, i.e., the square root of the number of primal oracle calls. Furthermore, in contrast to the primal objective, the dual objective has Lipschitz continuous gradient due to the strong convexity of regularized Wasserstein distances. Moreover, we study saddle-point formulation of the non-regularized Wasserstein barycenter problem which leads to the bilinear saddle-point problem. This approach also allows us to get optimal complexity bounds and it can be easily presented in a decentralized setup.
|
58 |
Fixed cardinality linear ordering problem, polyhedral studies and solution methods / Problème d'ordre linéaire sous containte de cardinalité, étude polyédrale et méthodes de résolutionNeamatian Monemi, Rahimeh 02 December 2014 (has links)
Le problème d’ordre linéaire (LOP) a reçu beaucoup d’attention dans différents domaines d’application, allant de l’archéologie à l’ordonnancement en passant par l’économie et même de la psychologie mathématique. Ce problème est aussi connu pour être parmi les problèmes NP-difficiles. Nous considérons dans cette thèse une variante de (LOP) sous contrainte de cardinalité. Nous cherchons donc un ordre linéaire d’un sous-ensemble de sommets du graphe de préférences de cardinalité fixée et de poids maximum. Ce problème, appelé (FCLOP) pour ’fixed-cardinality linear ordering problem’, n’a pas été étudié en tant que tel dans la littérature scientifique même si plusieurs applications dans les domaines de macro-économie, de classification dominante ou de transport maritime existent concrètement. On retrouve en fait ses caractéristiques dans les modèles étendus de sous-graphes acycliques. Le problème d’ordre linéaire est déjà connu comme un problème NP-difficile et il a donné lieu à de nombreuses études, tant théoriques sur la structure polyédrale de l’ensemble des solutions réalisables en variables 0-1 que numériques grâce à des techniques de relaxation et de séparation progressive. Cependant on voit qu’il existe de nombreux cas dans la littérature, dans lesquelles des solveurs de Programmation Linéaire en nombres entiers comme CPLEX peuvent en résoudre certaines instances en moins de 10 secondes, mais une fois que la cardinalité est limitée, ces mêmes instances deviennent très difficiles à résoudre. Sur les aspects polyédraux, nous avons étudié le polytope de FCLOP, défini plusieurs classes d’inégalités valides et identifié la dimension ainsi que certaines inégalités qui définissent des facettes pour le polytope de FCLOP. Nous avons introduit un algorithme Relax-and-Cut basé sur ces résultats pour résoudre les instances du problème. Dans cette étude, nous nous sommes également concentrés sur la relaxation Lagrangienne pour résoudre ces cas difficiles. Nous avons étudié différentes stratégies de relaxation et nous avons comparé les bornes duales par rapport à la consolidation obtenue à partir de chaque stratégie de relâcher les contraintes afin de détecter le sous-ensemble des contraintes le plus approprié. Les résultats numériques montrent que nous pouvons trouver des bornes duales de très haute qualité. Nous avons également mis en place une méthode de décomposition Lagrangienne. Dans ce but, nous avons décomposé le modèle de FCLOP en trois sous-problèmes (au lieu de seulement deux) associés aux contraintes de ’tournoi’, de ’graphes sans circuits’ et de ’cardinalité’. Les résultats numériques montrent une amélioration significative de la qualité des bornes duales pour plusieurs cas. Nous avons aussi mis en oeuvre une méthode de plans sécants (cutting plane algorithm) basée sur la relaxation pure des contraintes de circuits. Dans cette méthode, on a relâché une partie des contraintes et on les a ajoutées au modèle au cas où il y a des de/des violations. Les résultats numériques montrent des performances prometteuses quant à la réduction du temps de calcul et à la résolution d’instances difficiles hors d’atteinte des solveurs classiques en PLNE. / Linear Ordering Problem (LOP) has receive significant attention in different areas of application, ranging from transportation and scheduling to economics and even archeology and mathematical psychology. It is classified as a NP-hard problem. Assume a complete weighted directed graph on V n , |V n |= n. A permutation of the elements of this finite set of vertices is a linear order. Now let p be a given fixed integer number, 0 ≤ p ≤ n. The p-Fixed Cardinality Linear Ordering Problem (FCLOP) is looking for a subset of vertices containing p nodes and a linear order on the nodes in S. Graphically, there exists exactly one directed arc between every pair of vertices in an LOP feasible solution, which is also a complete cycle-free digraph and the objective is to maximize the sum of the weights of all the arcs in a feasible solution. In the FCLOP, we are looking for a subset S ⊆ V n such that |S|= p and an LOP on these S nodes. Hence the objective is to find the best subset of the nodes and an LOP over these p nodes that maximize the sum of the weights of all the arcs in the solution. Graphically, a feasible solution of the FCLOP is a complete cycle-free digraph on S plus a set of n − p vertices that are not connected to any of the other vertices. There are several studies available in the literature focused on polyhedral aspects of the linear ordering problem as well as various exact and heuristic solution methods. The fixed cardinality linear ordering problem is presented for the first time in this PhD study, so as far as we know, there is no other study in the literature that has studied this problem. The linear ordering problem is already known as a NP-hard problem. However one sees that there exist many instances in the literature that can be solved by CPLEX in less than 10 seconds (when p = n), but once the cardinality number is limited to p (p < n), the instance is not anymore solvable due to the memory issue. We have studied the polytope corresponding to the FCLOP for different cardinality values. We have identified dimension of the polytope, proposed several classes of valid inequalities and showed that among these sets of valid inequalities, some of them are defining facets for the FCLOP polytope for different cardinality values. We have then introduced a Relax-and-Cut algorithm based on these results to solve instances of the FCLOP. To solve the instances of the problem, in the beginning, we have applied the Lagrangian relaxation algorithm. We have studied different relaxation strategies and compared the dual bound obtained from each case to detect the most suitable subproblem. Numerical results show that some of the relaxation strategies result better dual bound and some other contribute more in reducing the computational time and provide a relatively good dual bound in a shorter time. We have also implemented a Lagrangian decomposition algorithm, decom-6 posing the FCLOP model to three subproblems (instead of only two subproblems). The interest of decomposing the FCLOP model to three subproblems comes mostly from the nature of the three subproblems, which are relatively quite easier to solve compared to the initial FCLOP model. Numerical results show a significant improvement in the quality of dual bounds for several instances. We could also obtain relatively quite better dual bounds in a shorter time comparing to the other relaxation strategies. We have proposed a cutting plane algorithm based on the pure relaxation strategy. In this algorithm, we firstly relax a subset of constraints that due to the problem structure, a very few number of them are active. Then in the course of the branch-and-bound tree we verify if there exist any violated constraint among the relaxed constraints or. Then the characterized violated constraints will be globally added to the model. (...)
|
Page generated in 0.0539 seconds