• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 380
  • 167
  • 50
  • 1
  • Tagged with
  • 593
  • 239
  • 177
  • 174
  • 119
  • 111
  • 101
  • 92
  • 91
  • 88
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Integrating MDG variable ordering in a VHDL-MDG design verification system

Feng, Yi January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
252

Intégration d'une fonction de coût à la contrainte Disjunctive utilisée en ordonnancement

Martel, Vincent 22 October 2019 (has links)
La programmation par contraintes est une technique accélérant la recherche de solutions pour des problèmes d’optimisation combinatoire. Ce mémoire porte sur l’application de cette technique en ordonnancement. Le but est d’intégrer une fonction de coût convexe à la contrainte Disjunctive qui régit l’ordre d’exécution d’un ensemble de tâches ne pouvant pas se chevaucher dans le temps. Dans ce contexte, le coût est perçu comme un retard déterminé par une échéance préférable indiquée pour chaque tâche. La contribution se traduit en l’introduction de la contrainte DisjunctiveTardiness qui tisse de nouveaux liens entre l’ordre d’exécution des tâches et la somme des retards engendrés. La cohérence de la contrainte est assurée par un algorithme de filtrage. L’algorithme raisonne à partir de la construction d’un réseau de flot pondéré basé sur la fenêtre d’exécution des tâches et leur échéance préférable. Il est implémenté dans un solveur et comparé à une alternative compétitive. Tel qu’observé, le nouvel algorithme amène un filtrage tangible, mais sa complexité trop élevée empêche d’aboutir à un nouvel état de l’art en pratique. En revanche, plusieurs pistes de solution pour réduire le temps d’exécution sont proposées. / Constraint programming is a technology originating from artificial intelligence that explores a search space to solve combinatorial problems. It uses filtering algorithms to filter the search space and speedup the search of a solution. This master thesis covers an application of this method in scheduling. The goal is to integrate a convex cost function to the Disjunctive constraint that governs the execution order of tasks unable to overlap each other on a time line. In this context, the cost is treated as a delay (tardiness) computed from a due date specified for each task. The contribution translates in a new constraint named DisjunctiveTardiness that brings a stronger relation between the order in a schedule and the sum of tardinesses. Consistency of the constraint is achieved by a filtering algorithm. The algorithm builds a weighted network flow from the allowed time window of the tasks and their due date. The solution is implemented in a solver. The experimental results show that the new algorithm applies stronger filtering, but its time complexity is too high to recommend it in practice. To conclude, several potential upgrades are proposed to reduce the execution time.
253

Industrie 4.0 : ordonnancement intelligent d'une cellule robotisée de soudage

Kone, Aminata 18 January 2023 (has links)
Dans ce mémoire, nous concevons un plan d'ordonnancement de la production dans un contexte d'industrie 4.0. L'environnement de travail est un atelier de soudure doté de trois stations pour le chargement et le déchargement des pièces, d'un robot de transport, d'un robot positionneur, de deux robots soudeurs et de gabarits sur lesquels sont montées les pièces. Dans un souci de construction de modèles reflétant la réalité de l'usine de production, des caractéristiques et des contraintes ont été considérées. Il s'agit entre autres des caractéristiques liées au type et aux temps de changement de gabarit, des contraintes d'entreposage, de ressources matérielles limitées (machines) et de recirculation. Le problème considéré est un problème de job shop flexible dont l'objectif est de minimiser la durée totale des opérations. Différentes variantes de la méthode exacte basée sur la programmation linéaire mixte en nombres entiers sont présentées. Ces méthodes sont de deux catégories à savoir les méthodes en une étape de résolution et les méthodes en deux étapes de résolution. La comparaison de ces différentes méthodes proposées montre que les méthodes en une étape de résolution offrent les meilleures valeurs de la fonction objectif mais sont plus lents dans la résolution tandis que les méthodes en deux étapes de résolution sont plus rapides dans la résolution mais n'ont pas les meilleures valeurs de la fonction objectif. / In this master's thesis, we design a production scheduling plan in an Industry 4.0 context. The working environment is a welding shop with three stations for loading and unloading parts, a transport robot, a positioner robot, two welding robots and jigs on which parts are mounted. In order to build models that reflect the reality of the production plant, additional characteristics and constraints were considered. These include characteristics related to the type and duration of jig change, constraints of storage, limited material resources (machines) and recirculation. The problem considered is a flexible job shop problem with the objective to minimize the total execution time (the makespan). Different variants of the exact method based on mixed integer linear programming are presented. These methods are of two categories, namely the one-step and the two-step methods. The comparison of these different proposed methods shows that the one-step method yields the best objective function values but requires relatively long computing times while the two-step method is faster but does not give the best objective function values.
254

Efficient algorithms to solve scheduling problems with a variety of optimization criteria

Fahimi, Hamed 24 April 2018 (has links)
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d'ordonnancement de grande envergure. L'ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d'un ordonnancement. Résoudre un problème d'ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l'exécuter. La plupart des problèmes d'ordonnancement sont NP-Difficiles. Conséquemment, il n'existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d'ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d'explorer ces algorithmes d'ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l'arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d'ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d'optimisation n'est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d'exécuter une tâche au temps t dépend de t. / Constraint programming is a powerful methodology to solve large scale and practical scheduling problems. Resource-constrained scheduling deals with temporal allocation of a variety of tasks to a set of resources, where the tasks consume a certain amount of resource during their execution. Ordinarily, a desired objective function such as the total length of a feasible schedule, called the makespan, is optimized in scheduling problems. Solving the scheduling problem is equivalent to finding out when each task starts and which resource executes it. In general, the scheduling problems are NP-Hard. Consequently, there exists no known algorithm that can solve the problem by executing a polynomial number of instructions. Nonetheless, there exist specializations for scheduling problems that are not NP-Complete. Such problems can be solved in polynomial time using dedicated algorithms. We tackle such algorithms for scheduling problems in a variety of contexts. Filtering techniques are being developed and improved over the past years in constraint-based scheduling. The prominency of filtering algorithms lies on their power to shrink the search tree by excluding values from the domains which do not yield a feasible solution. We propose improvements and present faster filtering algorithms for classical scheduling problems. Furthermore, we establish the adaptions of filtering techniques to the case that the tasks can be delayed. We also consider distinct properties of industrial scheduling problems and solve more efficiently the scheduling problems whose optimization criteria is not necessarily the makespan. For instance, we present polynomial time algorithms for the case that the amount of available resources fluctuates over time, or when the cost of executing a task at time t is dependent on t.
255

Production planning mechanisms in demand-driven wood remanufacturing industry

Rafiei, Rezvan 20 April 2018 (has links)
L'objectif principal de cette thèse est d'étudier le problème de planification de la production dans le contexte d'une demande incertaine, d’un niveau de service variable et d’approvisionnements incontrôlables dans une usine de seconde transformation du bois. Les activités de planification et de contrôle de production sont des tâches intrinsèquement complexes et difficiles pour les entreprises de seconde transformation du bois. La complexité vient de certaines caractéristiques intrinsèques de cette industrie, comme la co-production, les procédés alternatifs divergents, les systèmes de production sur commande (make-to-order), des temps de setup variables et une offre incontrôlable. La première partie de cette thèse propose une plate-forme d'optimisation/simulation permettant de prendre des décisions concernant le choix d'une politique de planification de la production, pour traiter rapidement les demandes incertaines, tout en tenant compte des caractéristiques complexes de l'industrie de la seconde transformation du bois. À cet effet, une stratégie de re-planification périodique basée sur un horizon roulant est utilisée et validée par un modèle de simulation utilisant des données réelles provenant d'un partenaire industriel. Dans la deuxième partie de cette thèse, une méthode de gestion des stocks de sécurité dynamique est proposée afin de mieux gérer le niveau de service, qui est contraint par une capacité de production limitée et à la complexité de la gestion des temps de mise en course. Nous avons ainsi développé une approche de re-planification périodique à deux phases, dans laquelle des capacités non-utilisées (dans la première phase) sont attribuées (dans la seconde phase) afin de produire certains produits jugés importants, augmentant ainsi la capacité du système à atteindre le niveau de stock de sécurité. Enfin, dans la troisième partie de la thèse, nous étudions l’impact d’un approvisionnement incontrôlable sur la planification de la production. Différents scénarios d'approvisionnement servent à identifier les seuils critiques dans les variations de l’offre. Le cadre proposé permet aux gestionnaires de comprendre l'impact de politiques d'approvisionnement proposées pour faire face aux incertitudes. Les résultats obtenus à travers les études de cas considérés montrent que les nouvelles approches proposées dans cette thèse constituent des outils pratiques et efficaces pour la planification de production du bois. / The main objective of this thesis is to investigate the production planning problem in the context of uncertain demand, variable service level, and uncontrollable supply in a wood remanufacturing mill. Production planning and control activities are complex and represent difficult tasks for wood remanufacturers. The complexity comes from inherent characteristics of the industry such as divergent co-production, alternative processes, make-to-order, short customer lead times, variable setup time, and uncontrollable supply. The first part of this thesis proposes an optimization/simulation platform to make decisions about the selection of a production planning policy to deal swiftly with uncertain demands, under the complex characteristics of the wood remanufacturing industry. For this purpose, a periodic re-planning strategy based on a rolling horizon was used and validated through a simulation model using real data from an industrial partner. The computational results highlighted the significance of using the re-planning model as a practical tool for production planning under unstable demands. In the second part, a dynamic safety stock method was proposed to better manage service level, which was threatened by issues related to limited production capacity and the complexity of setup time. We developed a two-phase periodic re-planning approach whereby idle capacities were allocated to produce more important products thus increasing the realization of safety stock level. Numerical results indicated that the solution of the two-phase method was superior to the initial method in terms of backorder level as well as inventory level. Finally, we studied the impact of uncontrollable supply on demand-driven wood remanufacturing production planning through an optimization and simulation framework. Different supply scenarios were used to identify the safety threshold of supply changes. The proposed framework provided managers with a novel advanced planning approach that allowed understanding the impact of supply policies to deal with uncertainties. In general, the wood products industry offers a rich environment for dealing with uncertainties for which the literature fails to provide efficient solutions. Regarding the results that were obtained through the case studies, we believe that approaches proposed in this thesis can be considered as novel and practical tools for wood remanufacturing production planning.
256

Méthodes de recherche arborescentes. Application à la résolution de problèmes d'ordonnancement et au calcul d'itinéraires multimodaux

Huguet, Marie-José 20 April 2011 (has links) (PDF)
Les travaux présentés dans ce document traitent de méthodes arborescentes pour la résolution de problèmes combinatoires d'optimisation ou de décision. Le premier chapitre présente les contributions que nous avons apportées pour les méthodes de résolution dites " à divergences ". Ces contributions concernent les modes de comptage des divergences pour les problèmes à variables discrètes, le développement d'une heuristique dynamique à pondération de variables, ainsi que, dans un contexte d'optimisation, l'utilisation de bornes ou d'heuristiques pour la sélection des points de divergences. Ces différentes contributions sont illustrées sur des problèmes d'ordonnancement ou sur des problèmes de satisfaction de contraintes. Le deuxième chapitre traite de propagation de contraintes pour la résolution de problèmes d'ordonnancement disjonctifs en présence de contraintes temporelles généralisées. Des extensions de méthodes de propagation de contraintes efficaces dans ce contexte sont proposées et des applications à la résolution de différents problèmes d'ordonnancement sont également présentées. Le troisième chapitre s'intéresse à un problème de calcul d'itinéraires point à point sur des réseaux de transport multi-modaux. La prise en compte de la multi-modalité fait surgir à la fois de nouvelles contraintes permettant d'exprimer si la séquence de modes d'un itinéraire conduit ou non à une solution admissible, mais aussi de nouveaux objectifs comme la minimisation du nombre de changement de modes. Le problème étudié (minimisation du temps de trajet et du nombre de transferts) est polynomial et différentes variantes basées sur le principe de l'algorithme de Dijkstra sont présentées et évaluées sur un cas réel.
257

Maîtrise de la dimension temporelle de la qualité de service dans les réseaux

MARTIN, Steven 06 July 2004 (has links) (PDF)
Les nouvelles applications sur Internet nécessitent des garanties de qualité de service (QoS) de la part du réseau. Nous nous intéressons à deux paramètres de QoS : le temps de réponse et la gigue de bout-en-bout. Nous proposons un ordonnancement, noté FP/DP, à base de priorités fixes (FP), départageant les paquets ex aequo selon leurs priorités dynamiques (DP). La priorité fixe d'un flux reflète son degré d'importance et sa priorité dynamique est un paramètre temporel. FP/FIFO et FP/EDF sont deux exemples d'ordonnancement FP/DP. Nous déterminons des bornes déterministes sur les paramètres de QoS considérés, en utilisant l'approche par trajectoire. En monoprocesseur, nous améliorons les résultats existants et prouvons que FP/EDF domine FP/FIFO sous certaines conditions. En distribué, nous apportons de nouveaux résultats et montrons que l'approche par trajectoire est beaucoup moins pessimiste que l'approche holistique. Nos résultats sont appliqués dans une architecture DiffServ/MPLS.
258

Etude et résolution de problèmes d'ordonnancement d'opérations d'évacuation / Solving evacuation scheduling problem

Boukebab, Kaouthar 01 December 2015 (has links)
Les travaux présentés dans cette thèse, qui s’inscrivent dans le cadre du projet franco-allemand DSS_Evac_Logistic, visent à proposer des méthodes permettant de calculer des plans d’évacuation macroscopiques d’une ville lors d’une catastrophe majeure. Deux problèmes d’évacuations sont considérés dans cette thèse : le problème d’évacuation par bus et le problème d’évacuation par bus et voitures. Le problème d’évacuation par bus a pour objectif de définir un plan d’évacuation afin de mettre à l’abri les évacués. Dans cette thèse, nous nous sommes intéressés à l’étude de trois versions du problème d’évacuation par bus. La première version est monocritère où nous cherchons à minimiser la date de fin d’évacuation. Puis, dans le second problème et afin d’assurer la sécurité des évacués, nous avons considéré une version bicritère qui généralise le cas monocritère, en incluant le risque encouru lors de l’évacuation des personnes. Les deux critères à minimiser sont la date de fin d’évacuation et le risque. La troisième version est une version robuste bicritère qui permet d’appréhender l’incertitude sur les données. Le but est de minimiser à la fois la date de fin d’évacuation et les modifications apportées sur une solution, de sorte qu’elle soit réalisable pour n’importe quel scénario de données. Pour résoudre ces problèmes d’évacuation par bus, nous avons proposé des méthodes exactes et des méthodes heuristiques. / The work presented in this thesis, which is a part of the Franco-German project DSS_Evac_Logistic, aims at proposing methods to calculate macroscopic evacuation plans for mid-size towns after a tremendous disaster. Two evacuation problems have been tackled in this thesis : the bus evacuation problem and bus-and-vehicle evacuation problem. The bus evacuation problem aims at calculating an evacuation plan to relocate evacuees outside the endangered area. In this thesis, we consider three versions of the bus evacuation problem. The first one is a monocriterion problem, where the objective is to minimize the maximum evacuation time. In order to guarantee the safety of evacuees, we have considered a bicriteria problem, which is a generalization of the monocriterion version, in which we take into consideration the risk exposure of the evacuees. Consequently, the bicriteria problem is solved by minimizing the total evacuation time and the risk. The third version is a bicriteria robust version because most of the planning data is subject to uncertainty. The goal is to minimize both the evacuation time and the vulnerability of the schedule that is subject to different evacuation circumstances. To solve all the versions of the bus evacuation problem, we have developed exact solutions based on mathematical formulation to address small instances and heuristic solutions to deal with larger instances.
259

Réconcilier performance et prédictibilité sur un many-coeur en utilisant des techniques d'ordonnancement hors-ligne / Reconciling performance and predictability on a noc-based mpsoc using off-line scheduling techniques

Fakhfakh, Manel 27 June 2014 (has links)
Les réseaux-sur-puces (NoCs) utilisés dans les architectures multiprocesseurs-sur-puces posent des défis importants aux approches d'ordonnancement temps réel en ligne (dynamique) et hors-ligne (statique). Un NoC contient un grand nombre de points de contention potentiels, a une capacité de bufferisation limitée et le contrôle réseau fonctionne à l'échelle de petits paquets de données. Par conséquent, l'allocation efficace de ressources nécessite l'utilisation des algorithmes da faible complexité sur des modèles de matériel avec un niveau de détail sans précédent dans l'ordonnancement temps réel. Nous considérons dans cette thèse une approche d'ordonnancement statique sur des architectures massivement parallèles (Massively parallel processor arrays ou MPPAs) caractérisées par un grand nombre (quelques centaines) de c¿urs de calculs. Nous identifions les mécanismes matériels facilitant l'analyse temporelle et l'allocation efficace de ressources dans les MPPAs existants. Nous déterminons que le NoC devrait permettre l'ordonnancement hors-ligne de communications, d'une manière synchronisée avec l'ordonnancement de calculs sur les processeurs. Au niveau logiciel, nous proposons une nouvelle méthode d'allocation et d'ordonnancement capable de synthétiser des ordonnancements globaux de calculs et de communications couvrants toutes les ressources d'exécution, de communication et de la mémoire d'un MPPA. Afin de permettre une utilisation efficace de ressources du matériel, notre méthode prend en compte les spécificités architecturales d'un MPPA et implémente des techniques d'ordonnancement avancées comme la préemption pré-calculée de transmissions de données. Nous avons évalué n / On-chip networks (NoCs) used in multiprocessor systems-on-chips (MPSoCs) pose significant challenges to both on-line (dynamic) and off-line (static) real-time scheduling approaches. They have large numbers of potential contention points, have limited internal buffering capabilities, and network control operates at the scale of small data packets. Therefore, efficient resource allocation requires scalable algorithms working on hardware models with a level of detail that is unprecedented in real-time scheduling. We consider in this thesis a static scheduling approach, and we target massively parallel processor arrays (MPPAs), which are MPSoCs with large numbers (hundreds) of processing cores. We first identify and compare the hardware mechanisms supporting precise timing analysis and efficient resource allocation in existing MPPA platforms. We determine that the NoC should ideally provide the means of enforcing a global communications schedule that is computed off-line (before execution) and which is synchronized with the scheduling of computations on processors. On the software side, we propose a novel allocation and scheduling method capable of synthesizing such global computation and communication schedules covering all the execution, communication, and memory resources in an MPPA. To allow an efficient use of the hardware resources, our method takes into account the specificities of MPPA hardware and implements advanced scheduling techniques such as pre-computed preemption of data transmissions. We evaluate our technique by mapping two signal processing applications, for which we obtain good latency, throughput, and resource use figures.
260

Méthodes directes hors-mémoire (out-of-core) pour la résolution de systèmes linéaires creux de grande taille

Agullo, Emmanuel 28 November 2008 (has links) (PDF)
La factorisation d'une matrice creuse est une approche robuste pour la résolution de systèmes linéaires creux de grande taille. Néanmoins, une telle factorisation est connue pour être coûteuse aussi bien en temps de calcul qu'en occupation mémoire. Quand l'espace mémoire nécessaire au traitement d'une matrice est plus grand que la quantité de mémoire disponible sur la plate-forme utilisée, des approches dites hors-mémoire (out-of-core) doivent être employées : les disques étendent la mémoire centrale pour fournir une capacité de stockage suffisante. Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et pratiques de telles factorisations hors-mémoire. Les environnements logiciel MUMPS et SuperLU sont utilisés pour illustrer nos discussions sur des matrices issues du monde industriel et académique. Tout d'abord, nous proposons et étudions dans un cadre séquentiel différents modèles hors-mémoire qui ont pour but de limiter le surcoût dû aux transferts de données entre la mémoire et les disques. Pour ce faire, nous revisitons les algorithmes qui ordonnancent les opérations de la factorisation et proposons de nouveaux schémas de gestion mémoire s'accommodant aux contraintes hors-mémoire. Ensuite, nous nous focalisons sur une méthode de factorisation particulière, la méthode multifrontale, que nous poussons aussi loin que possible dans un contexte parallèle hors-mémoire. Suivant une démarche pragmatique, nous montrons que les techniques hors-mémoire permettent de résoudre efficacement des systèmes linéaires creux de grande taille. Quand seuls les facteurs sont stockés sur disque, une attention particulière doit être portée aux données temporaires, qui restent en mémoire centrale. Pour faire décroître efficacement l'occupation mémoire associée à ces données temporaires avec le nombre de processeurs, nous repensons l'ordonnancement de la factorisation parallèle hors-mémoire dans son ensemble.

Page generated in 0.0589 seconds