• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1054
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Optimisation sous contrainte d'un générateur thermoélectrique pour la récupération de chaleur par différents algorithmes heuristiques

Allyson-Cyr, Mathieu 06 March 2019 (has links)
La présente étude porte sur le développement et l’optimisation d’un modèle de générateur thermoélectrique placé sur la surface d’une source de chaleur. La particularité de ce modèle est que la source de chaleur est sujette à un flux de chaleur et à une température de surface fixes. L’objectif principal est de développer un modèle de générateur thermoélectrique d’intérêt dans ce contexte particulier qui pourra s’adapter à différentes sources de chaleur et qui pourra inclure différents systèmes de refroidissement. Le modèle a été créé intégralement à l’aide du logiciel Matlab. Un algorithme génétique multi objectif est ensuite utilisé comme outil d’optimisation afin de maximiser les performances tout en minimisant les coûts du générateur thermoélectrique. Les objectifs d’optimisation proposés sont donc de maximiser la puissance électrique et de minimiser le nombre de modules. Lorsqu’un collecteur thermique est inclus au système, il est aussi nécessaire de minimiser la puissance de pompage et l’aire totale d’échange du collecteur. Une première étude considère uniquement la puissance comme objectif d’optimisation afin d’observer l’impact des contraintes de température et de flux de chaleur de la source sur les designs optimaux. Des cas multiobjectifs seront ensuite étudiés avec les différents objectifs énoncés. Finalement, les performances de différents algorithmes d’optimisation heuristiques seront comparées entre eux en utilisant le modèle thermoélectrique développé comme banc d'essai. Les forces et faiblesses de chaque algorithme seront analysées selon divers critères de performance, lorsqu’appliqués à un cas d’optimisation complexe. / This study presents a model of a thermoelectric generator placed directly on the surface of a heat source. One unique feature of this model is that the heat source is subject to fixed heat flux and surface temperature that the system must respect. The main objective is to develop this model in this particular context with the possibility to be adapted to any heat source and the option to add a cooling system. The model has been developed entirely on the software Matlab. Then, a genetic algorithm is used to perform an optimisation in order to find the design with the maximal power output and minimal number of thermoelectric modules. With the cooling system included, the total surface of exchange and pumping power is also considered. A preliminary analysis is conducted to analyse the impact of the heat flux and surface temperature constraint on such system. Thereafter, a multi-objective optimisation is performed to find the optimal design considering multiple optimisation objectives. Finally, different heuristic algorithms are compared for solving the thermoelectric model proposed. The performance is discussed using different performance criteria to show the pros and cons of each heuristic algorithm when solving a complex optimisation design problem.
442

Material handling optimization in warehousing operations

Chabot, Thomas 29 August 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019. / Les activités de distribution et d’entreposage sont des piliers importants de la chaîne d’approvisionnement. Ils assurent la stabilité du flux de matières et la synchronisation de toutes les parties prenantes du réseau. Un centre de distribution (CD) agit comme un point de découplage entre l’approvisionnement, la production et les ventes. La distribution comprend un large éventail d’activités visant à assurer la satisfaction de la demande. Ces activités passent de la réception au stockage des produits finis ou semi-finis, à la préparation des commandes et à la livraison. Les opérations d’un CD sont maintenant perçues comme des facteurs critiques d’amélioration. Elles sont responsables de la satisfaction d’un marché en évolution, exigeant des délais de livraison toujours plus rapides et plus fiables, des commandes exactes et des produits hautement personnalisés. C’est pourquoi la recherche en gestion des opérations met beaucoup d’efforts sur le problème de gestion des CDs. Depuis plusieurs années, nous avons connu de fortes avancées en matière d’entreposage et de préparation de commandes. L’activité de préparation de commandes est le processus consistant à récupérer les articles à leur emplacement de stockage afin d’assembler des commandes. Ce problème a souvent été résolu comme une variante du problème du voyageur de commerce, où l’opérateur se déplace à travers les allées de l’entrepôt. Cependant, les entrepôts modernes comportent de plus en plus de familles de produits ayant des caractéristiques très particulières rendant les méthodes conventionnelles moins adéquates. Le premier volet de cette thèse par articles présente deux importants et complexes problèmes de manutention des produits lors de la préparation des commandes. Le problème de préparation des commandes a été largement étudié dans la littérature au cours des dernières décennies. Notre recherche élargit le spectre de ce problème en incluant un ensemble de caractéristiques associées aux installations physiques de la zone de prélèvement, comme les allées étroites, et aux caractéristiques des produits (poids, volume, catégorie, fragilité, etc.). Une perspective plus appliquée à la réalité des opérations est utilisée dans notre développement d’algorithmes. Les déplacements liés à la préparation des commandes sont fortement influencés par le positionnement des produits. La position des produits dans la zone de prélèvement est déterminée par une stratégie d’affectation de stockage (storage assignment strategy). Beaucoup de ces stratégies utilisent de l’information sur les ventes des produits afin de faciliter l’accès aux plus populaires. Dans l’environnement concurrentiel d’aujourd’hui, la durée de vie rentable d’un produit peut être relativement courte. Des promotions peuvent également être faites pour pousser différents produits sur le marché. Le positionnement fourni par la stratégie d’hier ne sera probablement plus optimal aujourd’hui. Il existe plusieurs études mesurant l’impact d’une bonne réaffectation de produits sur les opérations de prélèvement. Cependant, ils étudient la différence des performances avec les positionnements passés et actuels. La littérature démontre clairement que cela apporte des avantages en termes d’efficacité. Toutefois, les déplacements nécessaires pour passer d’une position à une autre peuvent constituer une activité très exigeante. Ceci constitue le second volet de cette thèse qui présente des avancées intéressantes sur le problème de repositionnement des produits dans la zone de prélèvement. Nous présentons le problème de repositionnement des produits sous une forme encore peu étudiée aux meilleurs de nos connaissances : le problème de repositionnement. Plus précisément, nous étudions la charge de travail requise pour passer d’une configuration à l’autre. Cette thèse est structuré comme suit. L’introduction présente les caractéristiques et les missions d’un système de distribution. Le chapitre 1 fournit un survol de la littérature sur les principales fonctions d’un centre de distribution et met l’accent sur la préparation des commandes et les décisions qui affectent cette opération. Le chapitre 2 est consacré à l’étude d’un problème de préparation de commandes en allées étroites avec des équipements de manutention contraignants. Dans le chapitre 3, nous étudions un problème de préparation des commandes où les caractéristiques des produits limitent fortement les routes de prélèvement. Le chapitre 4 présente une variante du problème de repositionnement (reassignment) avec une formulation originale pour le résoudre. La conclusion suit et résume les principales contributions de cette thèse. Mots clés : Préparation des commandes, entreposage, problèmes de routage, algorithmes exacts et heuristiques, réaffectation des produits, manutention. / Distribution and warehousing activities are important pillars to an effective supply chain. They ensure the regulation of the operational flow and the synchronization of all actors in the network. Hence, distribution centers (DCs) act as crossover points between the supply, the production and the demand. The distribution includes a wide range of activities to ensure the integrity of the demand satisfaction. These activities range from the reception and storage of finished or semi-finished products to the preparation of orders and delivery. Distribution has been long seen as an operation with no or low added value; this has changed, and nowadays it is perceived as one of the critical areas for improvement. These activities are responsible for the satisfaction of an evolving market, requiring ever faster and more reliable delivery times, exact orders and highly customized products. This leads to an increased research interest on operations management focused on warehousing. For several years, we have witnessed strong advances in warehousing and order picking operations. The order picking activity is the process of retrieving items within the storage locations for the purpose of fulfilling orders. This problem has long been solved as a variant of the travelling salesman problem, where the order picker moves through aisles. However, modern warehouses with more and more product families may have special characteristics that make conventional methods irrelevant or inefficient. The first part of this thesis presents two practical and challenging material handling problems for the order picking within DCs. Since there are many research axes in the field of warehousing operations, we concentrated our efforts on the order picking problem and the repositioning of the products within the picking area. The order picking problem has been intensively studied in the literature. Our research widens the spectrum of this problem by including a set of characteristics associated with the physical facilities of the picking area and characteristics of the product, such as its weight, volume, category, fragility, etc. This means that a more applied perspective on the reality of operations is used in our algorithms development. The order picking workload is strongly influenced by the positioning of the products. The position of products within the picking area is determined by a storage assignment strategy. Many of these strategies use product sales information in order to facilitate access to the most popular items. In today’s competitive environment, the profitable lifetime of a product can be relatively short. The positioning provided by yesterday’s assignment is likely not the optimal one in the near future. There are several studies measuring the impact of a good reassignment of products on the picking operations. However, they study the difference between the two states of systems on the picking time. It is clear that this brings benefits. However, moving from one position to another is a very workload demanding activity. This constitutes the second part of this thesis which presents interesting advances on the repositioning of products within the picking area. We introduce the repositioning problem as an innovative way of improving performance, in what we call the reassignment problem. More specifically, we study the workload required to move from one setup to the next. This thesis is structured as follows. The introduction presents the characteristics and missions of a distribution system. Chapter 1 presents an overview of the literature on the main functions of a DC and emphasizes on order picking and decisions affecting this operation. Chapter 2 is devoted to the study of a picking problem with narrow aisles facilities and binding material handling equipment. In Chapter 3, we study the picking problem with a set of product features that strongly constrain the picking sequence. Chapter 4 presents a variant of the reassignment problem with a strong and new formulation to solve it. The conclusion follows and summarizes the main contributions of this thesis. Key words: Order-picking, warehousing, routing problems, exact and heuristic algorithms, products reassignment, material handling.
443

Stratégie de rotation sectorielle fonction des relations de causalité entre les forces économiques et boursières

Walker, David 02 February 2024 (has links)
La compréhension des interactions entre les forces économiques et boursières revêt une importance fondamentale pour les gestionnaires de portefeuille ainsi que pour les autorités monétaires. Les forces économiques exercent une influence sur les valorisations boursières, voir Chen, Roll et Ross (1986). Les taux de croissance des forces économiques et boursières sont interdépendants et leurs covariances dépendent de régimes en commun, voir Guidolin et Ono (2006), Hubrich et Telow (2014). Dans une nouvelle perspective, cette thèse considère que leurs taux de croissance évoluent en fonction de la structure causale des régimes exogènes de tendance haussière et baissière spécifiques à ces forces. Les relations de causalité qui lient leurs régimes sont découvertes par l'apprentissage de la structure et des paramètres d'un réseau bayésien. Une stratégie de rotation sectorielle consiste à moduler dans le temps les poids d'un portefeuille alloués aux secteurs boursiers, voir Chong et Phillips (2015). Le phénomène d'asymétrie de la volatilité de Black (1976) veut qu'une relation négative lie la croissance de la volatilité aux rendements boursiers. Par le biais d'un réseau bayésien, cette thèse exploite le pouvoir prévisionnel qu'exerce les régimes endogènes de volatilité d'indicateurs économique et boursier sur leurs régimes exogènes de tendance courants, connus ex post. Elle soutient qu'il est possible de construire une stratégie de rotation sectorielle profitable en exploitant le phénomène d'asymétrie de volatilité et les relations de causalité entre les forces économiques et boursières dans un problème de construction de portefeuille résolu par optimisation de scénarios. Des preuves de la surperformance d'une stratégie d'investissement active au-delà d'un indice de référence, dans un contexte d'investissement réel hors échantillon de calibration, supportent la thèse formulée. Des contributions secondaires de nature économiques et techniques sont réalisées aux fils des étapes nécessaires à la démonstration de la thèse principale. Différemment de Pagan et Sossounov (2003), un nouvel indicateur de crise et de croissance boursière, exempt de biais sectoriels, est construit à partir des phases exogènes de tendance coïncidentes à des indices de secteurs boursiers. Ces derniers sont communément regroupés en fonction de leur niveau de risque et de sensibilités à l'activité économique et à l'indice global de marché, voir Denoiseux et coll. (2017). Une méthode inédite de regroupement de secteurs est développée à partir de caractéristiques communes à leurs régimes exogènes : ils présentent des profils similaires d'association avec ceux des indicateurs économiques et leurs distributions de rendement par régime exogène disposent de propriétés uniques. La méthode usuelle de détection du phénomène d'asymétrie de la volatilité (PAV) repose sur un coefficient d'asymétrie significatif, lorsqu'intégré dans une expression GARCH de la variance conditionnelle, voir Glosten, Jagannathan et Runkle (1993). Une technique novatrice d'investigation du PAV, adaptée à des données à faible fréquence, est développée à partir de mesures d'association entre les phases endogènes à forte/faible volatilité et exogènes de tendance baissière/haussière. Le régime endogène de volatilité d'un indicateur qui satisfait au PAV constitue un indicateur avancé de son régime exogène de tendance courant. Un nouveau système d'équations est développé de manière à calibrer un modèle autorégressif, dont le terme d'erreur suit une mixture de lois normales, à partir d'un algorithme « Expected Maximization ». Ce modèle est exploité de manière à représenter les spécificités de l'anormalité des taux de croissance segmentés par régime exogène. Les corrélations des actifs se resserrent en période de recul boursier (Login et Solnik (2002)). Un algorithme est construit de manière à évaluer la segmentation optimale des corrélations, entre les taux de croissance de deux variables, parmi les combinaisons d'états de leur régime exogène. Une nouvelle procédure de sélection et de paramétrisation d'un algorithme d'apprentissage de la structure d'un réseau bayésien est développée en fonction des niveaux de risque optimaux des erreurs de type I et II, dans un contexte représentatif du problème. La procédure est utilisée afin de découvrir les liens de causalité entre les régimes de tendance et de volatilité des forces économiques et boursières. L'ensemble de ces outils permettent de modéliser dans une simulation de Monte-Carlo, la dépendance de la densité de probabilité des taux de croissance des indicateurs et de leurs corrélations aux phases exogènes de tendance, régies par un réseau bayésien dynamique.
444

Détection d'intrusions et analyse passive de réseaux

Couture, Mathieu 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / Dans ce travail, nous proposons un nouveau langage dédié à la détection d'intrusions. Il s'agit d'un langage purement déclaratif, basé sur une logique temporelle linéaire passée avec prédicats du premier ordre. Après avoir effectué une revue de treize langages de détection d'intrusions existant déjà, nous donnons une liste de dix propriétés souhaitables pour un langage de détection d'intrusions. Contrairement au langage que nous proposons, aucun des langages étudiés ne présente à la fois ces dix propriétés. En plus d'être suffisamment expressif pour répondre aux besoins identifiés, il vient avec un algorithme de vérification qui s'exécute en temps linéaire avec la quantité d'information analysée et utilise une quantité bornée d'espace mémoire. Ces deux propriétés permettent de protéger le système de détection d'intrusions contre d'éventuelles attaques d'inondation.
445

Ant Colony for Optimization of Imperfect Preventive Maintenance for Multi-State Systems

Sadat Al Hosseini, Reza 11 April 2018 (has links)
Dans ce travail, nous considérons un système multi-états série-parallèle dont les composantes sont sujettes à des réparations minimales et à des actions de maintenance préventive imparfaite. Le système peut avoir différents niveaux de performance, allant d'un fonctionnement parfait à une défaillance complète. Les composantes peuvent être en opération ou hors d'usage. La fiabilité d'un système multi-états est définie par sa probabilité de satisfaction d'une demande donnée. La fiabilité de chaque composante est caractérisée par sa fonction de hasard. Chaque action de maintenance préventive conduit à une réduction de l'âge effectif de l'équipement. Elle est caractérisée par son coefficient de réduction d'âge et par son coût. L'objectif consiste à planifier des actions de maintenance préventive pendant la durée de vie du système multi- états, de façon à minimiser le coût total moyen de maintenance, sous une contrainte de fiabilité. Il s'agit d'un problème d'optimisation combinatoire qui a été auparavant formulé et résolu par les algorithmes génétiques dans [47]. Dans ce travail, ce problème est résolu en utilisant une méthode heuristique basée sur le méta-heuristique des colonies de fourmis. Inspirée par les études sur le comportement des fournis réelles, cette méthode possède plusieurs caractéristiques intéressantes et constitue une approche intéressante pour résoudre les problèmes d'optimisation de la fiabilité. Une technique à base de la fonction de génération universelle est implémentée pour évaluer la fiabilité du système multi-états. En combinant la technique de la fonction de génération universelle et l'optimisation par colonies de fourmis, l'algorithme proposé permet d'obtenir efficacement une séquence quasi-optimale des actions de maintenance. L'approche développée et testée dans ce travail constitue une alternative intéressante pour la résolution du problème d'optimisation de la maintenance préventive imparfaite pour les systèmes multi-états. Des exemples numériques de la détermination de plans quasi-optimaux de maintenance préventive sont également présentés. / In this work, we consider a series-parallel multi-state System composed of elements subjected to minimal repair and imperfect preventive maintenance actions. The System has a range of performance levels from perfect functioning to complete failure. Components may experience two possible states: good and failed. Multi-state System reliability is defined as the System ability to satisfy given demand. The reliability of each element is characterized by its hazard function. Each preventive maintenance action may affect the effective age of equipment, and is characterized by its age reduction coefficient and cost. The objective is to determine a minimal average cost plan of preventive maintenance actions during multi-state System lifetime, under the constraint of providing a required level of System reliability. This is a combinatorial optimization problem which has been previously formulated and solved by genetic algorithms in [47]. In this work, this problem is solved by using a heuristic based on ant colony meta-heuristic. Inspired by studies on the behaviour of real ants, this method has many interesting characteristics and approaches for solving reliability optimization problems. A universal generating function technique is implemented to evaluate System reliability. By combining the use of the universal generating function technique and ant colony optimization, the proposed algorithm obtains efficiently quasi-optimal sequence of maintenance actions. The approach developed and tested in this work constitutes an interesting alternative approach to solve the imperfect preventive maintenance problem for multi-state Systems. Numerical examples of the determination of quasi-optimal preventive maintenance plans are also presented.
446

Analysis of error functions for the iterative closest point algorithm

Babin, Philippe 06 February 2020 (has links)
Dans les dernières années, beaucoup de progrès a été fait dans le domaine des voitures autonomes. Plusieurs grandes compagnies travaillent à créer un véhicule robuste et sûr. Pour réaliser cette tâche, ces voitures utilisent un lidar pour la localisation et pour la cartographie. Iterative Closest Point (ICP)est un algorithme de recalage de points utilisé pour la cartographie basé sur les lidars. Ce mémoire explore des approches pour améliorer le minimisateur d’erreur d’ICP. La première approche est une analyse en profondeur des filtres à données aberrantes. Quatorze des filtres les plus communs (incluant les M-estimateurs) ont été testés dans différents types d’environnement, pour un total de plus de 2 millions de recalages. Les résultats expérimentaux montrent que la plupart des filtres ont des performances similaires, s’ils sont correctement paramétrés. Néanmoins, les filtres comme Var.Trim., Cauchy et Cauchy MAD sont plus stables à travers tous les types environnements testés. La deuxième approche explore les possibilités de la cartographie à grande échelle à l’aide de lidar dans la forêt boréale. La cartographie avec un lidar est souvent basée sur des techniques de Simultaneous Localization and Mapping (SLAM) utilisant un graphe de poses, celui-ci fusionne ensemble ICP, les positions Global Navigation Satellite System (GNSS) et les mesures de l’Inertial Measurement Unit (IMU). Nous proposons une approche alternative qui fusionne ses capteurs directement dans l’étape de minimisation d’ICP. Nous avons réussi à créer une carte ayant 4.1 km de tracés de motoneige et de chemins étroits. Cette carte est localement et globalement cohérente. / In recent years a lot of progress has been made in the development of self-driving cars. Multiple big companies are working on creating a safe and robust autonomous vehicle . To make this task possible, theses vehicles rely on lidar sensors for localization and mapping. Iterative Closest Point (ICP) is a registration algorithm used in lidar-based mapping. This thesis explored approaches to improve the error minimization of ICP. The first approach is an in-depth analysis of outlier filters. Fourteen of the most common outlier filters (such as M-estimators) have been tested in different types of environments, for a total of more than two million registrations. The experimental results show that most outlier filters have a similar performance if they are correctly tuned. Nonetheless, filters such as Var.Trim., Cauchy, and Cauchy MAD are more stable against different environment types. The second approach explores the possibilities of large-scale lidar mapping in a boreal forest. Lidar mapping is often based on the SLAM technique relying on pose graph optimization, which fuses the ICP algorithm, GNSS positioning, and IMU measurements. To handle those sensors directly within theICP minimization process, we propose an alternative technique of embedding external constraints. We manage to create a crisp and globally consistent map of 4.1 km of snowmobile trails and narrow walkable trails. These two approaches show how ICP can be improved through the modification of a single step of the ICP’s pipeline.
447

Assemblage d'ADN avec graphes de de Bruijn sur FPGA

Poirier, Carl 24 April 2018 (has links)
Ce mémoire est consacré à la parallélisation d'un algorithme d'assemblage d'ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l'algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d'abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l'algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.
448

Synchronisation et optimisation de la chaîne d'approvisionnement dans le domaine de la production de volailles

Martins, Monica 15 March 2019 (has links)
L’industrie de la volaille est en pleine croissance au cours des dernières décennies. Au Québec, les producteurs de volailles sont organisés en association dans une complexe chaîne d’approvisionnement. Cette chaîne suit les principes de l’agriculture contractuelle sur un marché basé sur la gestion de l’offre. La gestion de l’offre, parmi d’autres règles, établit le prix de vente de la volaille aux épiceries. Cependant, il existe un marché spécialisé pour la volaille où le prix de vente n’est pas contrôlé par la gestion de l’offre. Ce marché spécialisé comprend le besoin de volaille fraîche de la restauration et des rôtisseries. Il est beaucoup plus profitable pour les producteurs d’approvisionner ce marché spécialisé. La coopérative partenaire de cette recherche est formée par des producteurs de volailles pour abattre et vendre leur production. La coopérative veut ajouter de la valeur à ses propriétaires en augmentant sa participation au marché spécialisé de la volaille. Cependant, ses produits ne sont pas toujours dans le standard de poids requis par ce marché. Ce mémoire présente l’étude du cas de cette coopérative, afin d’améliorer leurs processus opérationnels et d’obtenir des produits dans le poids standard établi par le marché spécialisé. On propose donc une solution à ce problème avec l’emploi de la programmation mathématique. L’algorithme de séparation et d’évaluation progressive (branch-and-bound) est appliqué pour l’obtention des résultats. On a trouvé une solution à la formulation mathématique proposée au problème opérationnel de la coopérative. Bien que la solution ait été obtenue avec un écart d’optimalité de 20%, la coopérative a vu qu’il était possible de gagner du temps dans son processus opérationnel si la solution était adoptée. La coopérative a donc décidé de transformer ce prototype en un vrai logiciel pour la planification de l’élevage. / The poultry industry faces a strong growth in the last decades. In Québec, poultry producers are organized in associations within a complex supply chain. This chain follows the principles of the contract farming in a market based on supply management. The supply management, among other rules, establishes the sales price of poultry to grocery stores. However, there is a specialized market for the poultry where the sale price is not controlled by the supply management. This specialized market gathers the need of fresh poultry for the restaurants and rotisseries. It is much more profitable for the producers to supply this specialized market. The cooperative partner of this research is composed of poultry producers to slaughter and sell their production. This cooperative wants to add value to their owners by increasing participation in the specialized poultry market. However, their products are not always within the required weight. This master thesis presents the case study of the cooperative so that they can enhance their operational processes and have the products within the standard weight established by the specialized market. We propose a solution to this problem by using mathematical programming. The branch-and-bound algorithm is used for obtaining the results. We found a solution for the mathematical formulation proposed for the operational problem. Even though the solution was obtained with an optimization gap of 20%, the cooperative noticed an opportunity to save time on the daily work in its operational process if the solution is adopted. So, the cooperative decided to transform this prototype in a real software for their production planning.
449

Efficient algorithms to solve scheduling problems with a variety of optimization criteria

Fahimi, Hamed 24 April 2018 (has links)
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d'ordonnancement de grande envergure. L'ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d'un ordonnancement. Résoudre un problème d'ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l'exécuter. La plupart des problèmes d'ordonnancement sont NP-Difficiles. Conséquemment, il n'existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d'ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d'explorer ces algorithmes d'ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l'arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d'ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d'optimisation n'est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d'exécuter une tâche au temps t dépend de t. / Constraint programming is a powerful methodology to solve large scale and practical scheduling problems. Resource-constrained scheduling deals with temporal allocation of a variety of tasks to a set of resources, where the tasks consume a certain amount of resource during their execution. Ordinarily, a desired objective function such as the total length of a feasible schedule, called the makespan, is optimized in scheduling problems. Solving the scheduling problem is equivalent to finding out when each task starts and which resource executes it. In general, the scheduling problems are NP-Hard. Consequently, there exists no known algorithm that can solve the problem by executing a polynomial number of instructions. Nonetheless, there exist specializations for scheduling problems that are not NP-Complete. Such problems can be solved in polynomial time using dedicated algorithms. We tackle such algorithms for scheduling problems in a variety of contexts. Filtering techniques are being developed and improved over the past years in constraint-based scheduling. The prominency of filtering algorithms lies on their power to shrink the search tree by excluding values from the domains which do not yield a feasible solution. We propose improvements and present faster filtering algorithms for classical scheduling problems. Furthermore, we establish the adaptions of filtering techniques to the case that the tasks can be delayed. We also consider distinct properties of industrial scheduling problems and solve more efficiently the scheduling problems whose optimization criteria is not necessarily the makespan. For instance, we present polynomial time algorithms for the case that the amount of available resources fluctuates over time, or when the cost of executing a task at time t is dependent on t.
450

Autocorrection en temps réel pour la spectroscopie à double peigne de fréquences optiques

Tourigny-Plante, Alex 23 October 2023 (has links)
Titre de l'écran-titre (visionné le 24 juillet 2023) / Cette maîtrise a pour objectif de développer et implanter un algorithme sur FPGA afin de faire l'acquisition et l'autocorrection d'interférogrammes provenant d'un interféromètre à double peigne de fréquences optiques. Les signaux optiques de chacun des peignes sont asservis au moyen de plateformes FPGA qui effectuent des boucles d'asservissement de phase de type PLL. Les phases résiduelles non corrigées sont transmises à la plateforme de correction. L'algorithme de correction consiste en une étape de précorrection à l'aide des signaux de phase précédemment transmis, puis en une étape d'autocorrection. Cette dernière est basée sur l'extraction des paramètres de correction à partir du signal lui-même, au moyen de corrélations croisées sur les portions centrales des interférogrammes. Les sources optiques étant suffisamment stabilisées, une correction de phase et une troncature sont suffisantes pour moyenner de façon cohérente les interférogrammes à l'intérieur d'un FPGA. Cela permet d'enregistrer plus longtemps et ainsi améliorer le rapport signal sur bruit de la mesure. Des mesures spectroscopiques de H¹²C¹⁴N sont prises an de valider les résultats de l'algorithme. Un SNR de 50923 est atteint avec un temps de mesure de 55.4 secondes. La figure de mérite est calculée à 5.55 × 10⁶ et est à une facteur 5 de la valeur maximale théorique pour les conditions expérimentales. La mesure spectroscopique correspond à la courbe théorique provenant de la base de données HITRAN avec une différence de l'ordre de 0.49%, provenant principalement des asymétries de Fano.

Page generated in 0.0365 seconds