Spelling suggestions: "subject:"algorithmes génétique"" "subject:"lgorithmes génétique""
11 |
Un système intelligent de planification et d'ordonnancement dédié au contexte d'ingénierie sur commandeNeumann, Anas 05 August 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2023 / Les activités de planification et d'ordonnancement sont complexes et leur optimisation est cruciale pour les entreprises, particulièrement dans les réalités économiques et industrielles modernes. En effet, la forte concurrence engendrée par la globalisation du marché, l'exigence croissante des consommateurs en termes de qualité et délais, ou encore l'utilisation d'environnements technologiques fortement connectés (Industrie 4.0), motivent les entreprises à améliorer continuellement leurs approches de gestion tactique et opérationnelle (Lasi et al., 2014; Hozdić, 2015; Alcácer and Cruz-Machado, 2019). C'est particulièrement vrai pour les produits d'ingénierie sur demande, ou Engineer-To-Order (ETO). Ces produits sont souvent très complexes en termes de structure, uniques ou non-standards, et sont fabriqués sur la base de besoins incertains et d'une conception incomplète ou vouée à évoluer (Wortmann, 1983, 1992; Mather, 1999; Little et al., 2000; Jünge et al., 2021; Alfnes et al., 2021). Ils conviennent particulièrement bien aux Petites et Moyennes Entreprises (PMEs) qui voient dans ce service de personnalisation un avantage concurrentiel par rapport aux grandes organisations disposant de capacités de production plus importantes (Little et al., 2000; Kusturica et al., 2018; Zennaro et al., 2019). Cependant, la nature incertaine de ces produits rend plus difficile l'évaluation des prix, la prévision des charges et des durées, engendre du gaspillage (d'éléments achetés ou produits avant d'être modifiés ou annulés) et réduit la robustesse des ordonnancements (par nécessité de réordonnancement) (Gutfeld et al., 2014; Hooshmand et al., 2016; Bhalla et al., 2022). Afin de proposer des décisions pertinentes et de prédire avec justesse les résultats qui en découleront, un système d'aide à la décision pour la planification et l'ordonnancement dédié au contexte ETO se doit de tenir compte des spécificités de ses produits et du processus permettant leur réalisation. Par exemple, les projets ETO sont généralement exécutés en ingénierie concurrente : on produit les pièces validées sans attendre la fin de la conception du projet. De plus, contrairement aux activités de production ou d'assemblage, les étapes d'ingénierie et de design peuvent être répétées jusqu'à la validation du client, ne sont exécutées qu'une fois pour différents éléments identiques du projet, sont souvent mesurées en journées, voire semaines, et sont soumises à des règles de précédence différentes. À cet égard, cette thèse s'articule autour de la question de recherche suivante : "Par quels moyens fonctionnels, méthodologiques, technologiques et architecturaux un système d'aide à la décision pour la planification et l'ordonnancement peut-il répondre aux problématiques des PMEs liées à l'approche ETO ?" Les cinq principales problématiques visées étant (i) l'instabilité des plans et ordonnancement construits, (ii) le gaspillage (de temps, de ressources matérielles ou financières) dû aux révisions de la conception, (iii) la difficulté à satisfaire les attentes des clients en termes de coût et délais, (iv) la forte concurrence du marché industriel moderne ou encore (v) la difficulté à prédire la performance des décisions prises. À travers cette thèse, nous répondons à cette question en proposant un système intelligent de planification et d'ordonnancement dédié au contexte ETO. L'objectif étant d'obtenir un système complet et fonctionnel. Ce dernier est composé d'un modèle de données (comportant les décisions clés, les informations nécessaires à la prise de ces décisions, les métriques d'évaluation et les contraintes d'optimisation), de plusieurs modules fonctionnels reposant sur des algorithmes d'optimisation et d'apprentissage novateurs, ainsi que sur une séquence d'interactions entre ces modules pour accomplir les différents cas d'utilisation. Afin d'appréhender de manière réalisable l'atteinte de cet objectif, nous avons réparti les étapes de création du système en sept contributions scientifiques. Tout d'abord, l'architecture est composée de cinq contributions conceptuelles : (i) la conceptualisation et la modélisation mathématique du problème étudié, (ii) la proposition d'une stratégie d'ordonnancement robuste, (iii) la conception d'une méthode heuristique de résolution (algorithme génétique hybride) du problème de planification et d'ordonnancement, (iv) la conception d'une méthode de construction d'une stratégie qui incorpore les décisions de planification et d'ordonnancement dans une stratégie commerciale et prédit son impact sur plusieurs métriques (à l'aide d'un réseau de neurones artificiels), et finalement, (v) l'architecture qui regroupe ces différents éléments. Ces contributions ont été possibles à la suite de différentes analyses et revues de la littérature scientifique. Ces revues ont permis de détecter des manques à combler et de faire des choix quant aux outils et méthodes à exploiter. La nature complexe, stochastique et combinatoire des problèmes rencontrés nous a motivé à opter pour une utilisation combinée de méthodes issues de l'intelligence artificielle (apprentissage automatique, méthodes d'optimisation combinatoire et simulation). Finalement, nous avons développé un prototype de notre architecture sous la forme d'un logiciel de simulation pédagogique et gamifiée. Nos contributions ont tout d'abord été testées unitairement et quantitativement à l'aide de deux types de métriques : leur performance computationnelle (vitesse d'exécution et mémoire utilisée) et la qualité des solutions proposées (déviation de l'optimalité, qualité pratique mesurée à l'aide de scénarios aléatoires d'exécution). Les résultats publiés démontrent ainsi (i) la capacité de nos méthodes à opérer sur des projets de taille réelle et (ii) la qualité des solutions proposées. Ensuite, la réalisation du prototype a permis de tester leur intégration sous la forme d'un système complet et fonctionnel. Ce prototype a par ailleurs été utilisé dans le cadre d'un cours dispensé à l'Université Laval. / Planning and scheduling activities are difficult and significantly impact the performance of manufacturing companies. The latter are therefore forced to constantly search for optimization methods that could help improve their tactical and operational decisions. It is especially true in modern economic and industrial realities characterized by strong competition due to the globalization of the market and growing expectations for quality and short lead times (Lasi et al., 2014; Hozdić, 2015; Alcácer and Cruz-Machado, 2019). Both activities are even more challenging in the Engineer-To-Order (ETO) context. Indeed, ETO products are one-of-a-kind or highly customized and non-standard. They are often composed of a complex structure (BOM/EBOM) and their production is executed based on uncertain needs for features and an incomplete design, intended to evolve over time (Wortmann, 1983, 1992; Mather, 1999; Little et al., 2000; Jünge et al., 2021; Alfnes et al., 2021). The ETO context is very suitable for Small and Medium Enterprises (SMEs) which see this additional service of design and engineering as a competitive advantage over industries with larger production capacities (Little et al., 2000; Kusturica et al., 2018; Zennaro et al., 2019). However, producing a partially unknown product complicates the forecast of costs, workloads, or deadlines (Gutfeld et al., 2014; Hooshmand et al., 2016; Bhalla et al., 2022). ETO projects are also subject to unstable schedules (with frequent rescheduling) and waste of time and resources. To offer appropriate planning and scheduling decisions and precisely forecast their performance, decision support systems dedicated to the ETO context should consider the specificities of typical products and execution processes. For instance, ETO projects are typically executed in concurrent engineering: already validated items are produced without waiting for the complete design of the product. Besides, unlike physical operations (production and assembly), non-physical activities (design and engineering) are repeated until validated by the client; are executed once for several identical items; are measured in days or even weeks; and do not respect the same precedence relations. This thesis intends to answer the following research question: "By what functional, methodological, technological, and architectural means can a decision support system for planning and scheduling address the issues faced by SMEs due to the ETO approach?" The five main issues addressed are (i) the frequent need for rescheduling, (ii) the waste of time and resources (due to items cancellation or modification after their purchase or production), (iii) the difficulty to satisfy the client expectations in terms of cost and lead time, (iv) the strong competition of the modern industrial market, and (v) the inability to forecast the impact of the decisions. Through this thesis, we answer this question by proposing an intelligent planning and scheduling system dedicated to the ETO context. We aim to obtain a complete and operational system. Hence, its architecture is composed of a data model (including the main decisions, the mandatory data to make those decisions, the metrics to evaluate their quality, and the optimization constraints), several business modules based on innovative optimization and learning algorithms, and the sequence of interactions needed to accomplish the different use cases. We then divided the different steps needed to answer the research question into seven achievable scientific contributions. First, the technical components of our architectures represent the five main contributions: (i) a mathematical model representing the studied problem, (ii) a robust planning and scheduling strategy, (iii) a hybrid genetic algorithm able to solve a real-sized instance of the problem, (iv) a prediction model, based on artificial neural networks, to build a complete commercial strategy incorporating the planning and scheduling decisions and forecasting its performance, and (v) the software architecture. Our contributions were possible only after various analyses and literature reviews. Those reviews allowed us to notice gaps regarding our context and make informed choices. To overcome the complex, stochastic, and combinatorial nature of the problems encountered, we opted for a combined use of methods linked to Artificial Intelligence (heuristic optimization, machine learning, and simulation). Finally, we implemented a prototype of our system as a gamified software dedicated to learning purposes. We first tested our contributions separately (unit tests) using two types of quantitative metrics: the computational performance (computing time and memory used) and the quality of the proposed solutions (deviation, impact of randomly generated scenarios). The results highlighted the capacity of our methods to solve realistic instances and the impact of our planning and scheduling strategy. Then, our prototype of implementation allowed us to validate their viable integration as a complete system. Our prototype has also been tested and used as part of a course given at Université Laval.
|
12 |
Méthodologie de conception de contrôleurs intelligents par l'approche génétique. Application à un bioprocédéGuenounou, Ouabib 22 April 2009 (has links) (PDF)
Dans ce travail, le problème de conception de contrôleurs flous est étudié. Dans une première partie, on présente un état de l'art sur les techniques utilisées à savoir les algorithmes génétiques et ses différentes variantes, les réseaux de neurones, la logique floue et leurs hybridations. Prenant appui sur cet état de l'art nous proposons une première méthode de conception des contrôleurs flous de Mamdani par algorithmes génétiques simples. Cette méthode est en suite améliorée par l'emploi des algorithmes génétiques hiérarchisés. Ces derniers permettent par le biais de la structure de leurs chromosomes, une meilleure optimisation des paramètres du contrôleur tout en éliminant les règles incohérentes qui peuvent se présenter, comme pour la première méthode, à la fin du processus d'optimisation. La dernière méthode proposée concerne la synthèse des contrôleurs flous de Sugeno. Elle est basée sur une procédure d'apprentissage hybride qui se déroule en deux étapes. Durant la première étape, le contrôleur flou est représenté sous forme d'un réseau de neurones multicouches dont les paramètres sont optimisés par l'algorithme de rétropropagation. Dans la deuxième étape, les paramètres obtenus à l'issue de la première phase sont extraits et optimisés par le NSGA-II suivant un codage hiérarchisé. L'ensemble des ces méthodes est appliqué pour la conduite d'un procédé de fermentation alcoolique en mode continu.
|
13 |
Imagerie Isar à l'aide de l'algorithme génétiqueMartin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.
|
14 |
Résolution de conflits et séquençage d'avions par algorithmes évolutionnaires multiobjectifsLachance, Étienne January 2014 (has links)
L'augmentation grandissante du trafic aérien rend le travail des contrôleurs aériens de plus en plus ardu, spécialement en ce qui a trait aux tâches de résolution de conflits et de séquençage d'avions en arrivée. L'automatisation de la résolution de conflits et du séquençage reste toujours un problème ouvert aujourd'hui. L'automatisation de ces deux problèmes permettrait d'une part de mieux modéliser le comportement des contrôleurs aériens dans un simulateur de vol, ou d'améliorer les outils de gestion du trafic aérien. Les caractéristiques combinatoires de ces problèmes conduisent à l'utilisation de techniques numériques stochastiques, plus spécifiquement des algorithmes évolutionnaires. De plus, les nombreux paramètres intervenant dans une situation de gestion de trafic aérien incitent à l'utilisation d'algorithmes multiobjectif. Dans un premier temps, un algorithme génétique multiobjectif (SPEA-MOD) et un algorithme de colonies de particules (PSO-MO) également multiobjectif ont été développés. Ces deux algorithmes ont été comparés à des problèmes multiobjectif contraints et non-contraints. Les résultats ont montré que SPEA-MOD et PSO-MO sont en général supérieurs à ce que l'on rapporte dans la littérature. Dans un deuxième temps, les deux algorithmes ont résolu plusieurs situations conflictuelles de la phase de vol en route (régime de croisière). Les instructions fournies par les algorithmes peuvent être en deux ou en trois dimensions. Les objectifs et les contraintes représentent des paramètres tels que la minimisation d'instructions fournies aux avions et une séparation minimale entre les avions. De ces solutions numériques réalisées, l'algorithme SPEA-MOD s'est avéré particulièrement efficace à des problèmes fortement contraints. Une modélisation novatrice de trajectoires complexes a permis de résoudre des problèmes de séquençage d'avions dans la phase d'arrivée. Le séquençage d'avions en arrivée par un algorithme évolutionnaire fut réalisé pour la première fois dans le cadre de cette recherche. Cette modélisation a également rendu possible la résolution de conflits de deux flux d'avions se croisant.
|
15 |
Optimisation structurelle des gridshellsBouhaya, Lina 14 December 2010 (has links) (PDF)
Le terme gridshell désigne une coque discrète qui est obtenue par déformation élastique d'une grille bidirectionnelle continue plane sans rigidité en cisaillement puis rigidifiée par une troisième direction de barres. Ainsi défini, un gridshell a un potentiel structural intéressant et peut répondre à des exigences architecturales complexes. La recherche de forme de ces structures a été menée à travers l'histoire principalement par deux méthodes, la méthode du filet inversé et la relaxation dynamique. Ces deux méthodes permettent d'obtenir une forme approchée de celle proposée par l'architecte, dérivant d'une grille à plat et de conditions aux limites partiellement ou complètement imposées. Dans le cadre de cette thèse, nous nous sommes intéressés à générer un gridshell sur une surface à forme et contours imposés. Un outil numérique se basant sur la méthode du compas a été développé. Il permet de mailler un réseau de Tchebychev sur une surface connaissant son équation cartésienne. Un autre outil permettant le maillage se basant sur un calcul en éléments finis explicite a été mis en œuvre. La particularité de cette technique est de pouvoir tenir en compte des propriétés mécaniques de la structure et de simuler le comportement du gridshell. Des applications des deux méthodes sur des formes architecturalement intéressantes ont permis de voir les limitations de la possibilité de mailler une forme avec un réseau de Tchebychev. La méthode du compas a ensuite été couplée à des algorithmes métaheuristiques types génétiques. L'algorithme résultant permet d'optimiser un gridshell en minimisant la courbure dans les barres et donc les contraintes dans la structure introduites lors de la mise en forme. Il a été mis en œuvre et testé pour plusieurs surfaces
|
16 |
Contribution à l'ordonnancement des activités de maintenance dans les systèmes de production.Kaabi-Harrath, Jihène 20 September 2004 (has links) (PDF)
Le contexte de notre travail s'intéresse à l'ordonnancement des activités de maintenance dans les systèmes de production. L'objectif de la thèse concerne l'élaboration de méthodes de résolution minimisant un critère regroupant les deux aspects production et maintenance. Les règles de priorité ainsi que les algorithmes génétiques ayant fait leur preuve dans le domaine seront à la base de notre étude. Etude faite tout d'abord sur un problème à une machine puis étendue au cas du Flow Shop. Notre contribution comporte tois volets. Le premier volet prend appui sur les solutions générées à l'aide d'une règle de dominance reliant les tâches de production et les tâches de maintenance. Le deuxième volet propose un algorithme par séparation et évaluation permettant de générer des ordonnancements de permutation du problème conjoint de la production et de la maintenance au sein du FLow Shop à deux machines. Le troisième volet étend l'étude au cas du Flow Shop à plusieurs machines. Nous proposons dans ce cas un algorithme génétique avec un codage approprié. Cet algorithme a l'avantage de balayer tout l'espace de recherche et par conséquent de générer des ordonnancements de très bonne qualité. Nous optons pour la maintenance préventive systématique pour l'appliquer dans notre étude. L'une des difficultés majeures de ce type de maintenance est le choix des périodes d'interventions optimales. Nous proposons dans ce cadre une méthode de choix de périodes systématiques.
|
17 |
Contribution à l'ordonnancement conjoint de la production et de la maintenance : Application au cas d'un Job Shop.Harrath, Youssef 16 December 2003 (has links) (PDF)
Le contexte de notre travail s'intéresse à l'ordonnancement d'un atelier de type job shop. L'objectif de la thèse concerne l'élaboration d'une méthode de résolution aussi bien dans le cas classique d'un ordonnancement relatif à la production que dans le cas beaucoup moins étudié touchant l'ordonnancement conjoint de la production et de la maintenance. Les algorithmes génétiques ayant fait leur preuve dans le domaine aussi bien mono objectif que multiobjectif seront à la base de notre étude. Etude faite tout d'abord sur un problème classique de job shop noté J / / Cmax , en ne tenant pas compte des contraintes de disponibilité des machines, puis en introduisant dans un deuxième temps l'aspect de maintenance préventive ayant des objectifs parfois antagonistes avec la production et qui nécessite une résolution multiobjectif. Notre contribution comporte deux volets. Le premier volet prend appui sur les solutions générées par un algorithme génétique qui sont étudiées par des méthodes d'apprentissage. Méthodes qui seront resituées dans le processus d'Extraction de Connaissance à partir des Données (ECD). Dans un soucis de validation et de comparaison par rapport aux travaux faits dans la communauté, la démarche proposée a été élaborée sur un problème classique de type J / / Cmax et sur des benchmarks connus. Le deuxième volet propose un algorithme génétique Pareto optimal résolvant le problème d'ordonnancement conjoint de la production et de la maintenance au sein du job shop. Cet algorithme génétique génère des solutions Pareto optimales. Solutions que nous validerons par des bornes inférieures. Nous optons pour la maintenance préventive systématique pour l'appliquer dans l'atelier de job shop. L'une des difficultés majeures de ce type de maintenance est le choix des périodes d'interventions. Nous proposons dans ce cadre deux méthodes de choix de périodes systématiques.
|
18 |
Analyse des modèles particulaires de Feynman-Kac et application à la résolution de problèmes inverses en électromagnétismeGiraud, François 29 May 2013 (has links)
Dans une première partie théorique, nous nous penchons sur une analyse rigoureuse des performances de l'algorithme Sequential Monte Carlo (SMC) conduisant à des résultats de type bornes L^p et inégalités de concentration. Nous abordons notamment le cas particulier des SMC associés à des schémas de température, et analysons sur ce sujet un processus à schéma adaptatif.Dans une seconde partie appliquée, nous illustrons son utilisation par la résolution de problèmes inverses concrets en électromagnétisme. Le plus important d'entre eux consiste à estimer les propriétés radioélectriques de matériaux recouvrant un objet de géométrie connue, et cela à partir de mesures de champs rétrodiffusés. Nous montrons comment l'algorithme SMC, couplé à des calculs analytiques, permet une inversion bayésienne, et fournit des estimées robustes enrichies d'estimations des incertitudes. / Sequential and Quantum Monte Carlo methods, as well as genetic type search algorithms, can be interpreted as a mean field and interacting particle approximation of Feynman-Kac models in distribution spaces. The performance of these population Monte Carlo algorithms is strongly related to the stability properties of nonlinear Feynman-Kac semigroups. In a first theoretical part, we analyze these models in terms of Dobrushin ergodic coefficients of the reference Markov transitions and the oscillations of the potential functions. Sufficient conditions for uniform concentration inequalities w.r.t. time are expressed explicitly in terms of these two quantities. We provide an original perturbation analysis that applies to annealed and adaptive FK models, yielding what seems to be the first results of this kind for these type of models. Special attention is devoted to the particular case of Boltzmann-Gibbs measures' sampling. In this context, we design an explicit way of tuning the number of Markov Chain Monte Carlo iterations with temperature schedule. We also propose and analyze an alternative interacting particle method based on an adaptive strategy to define the temperature increments. In a second, applied part, we illustrate the use of these SMC algorithms in the field of inverse problems. Mainly, the following electromagnetism (EM) inverse problem is addressed. It consists in estimating local radioelectric properties of materials recovering an object from global EM scattering measurements, at various incidences and wave frequencies. This large scale ill-posed inverse problem is explored by an intensive exploitation of an efficient 2D Maxwell solver, distributed on high performance computing machines. Applied to a large training data set, a statistical analysis reduces the problem to a simpler probabilistic metamodel, on which Bayesian inference can be performed. Considering the radioelectric properties as a hidden dynamic stochastic process, that evolves in function of the frequency, it is shown how the Sequential Monte Carlo methods can take benefit of the structure and provide local EM property estimates.
|
19 |
Logique floue et algorithmes génétiques pour le pré-traitement de données de biopuces et la sélection de gènesBonilla Huerta, Edmundo 13 November 2008 (has links) (PDF)
Dans le domaine de la biologie moléculaire, les technologies d'analyse d'expression génique comme les biopuces suscitent un intérêt très grand. Une des applications de ces technologies est le diagnostic et la classification de différents types de tumeurs. Une des particularités des données issues des biopuces est qu'elles sont décrites par un très grand nombre d'attributs (gènes) alors que peu d'échantillons analysés sont disponibles. Cela empêche la compréhension des données et réduit de manière considérable la performance des algorithmes de classification. Dans cette thèse, nous proposons des méthodes innovantes pour réduire la taille initiale des données et pour sélectionner des ensembles de gènes pertinents pour une classification supervisée. Nous proposons tout d'abord une méthode de pré-traitement des données et de réduction de dimension basée sur la logique floue. Le problème de la sélection d'attributs est ensuite traité par deux types d'approche. Dans la première, nous proposons une méthode enveloppe qui grâce à une double exploration génétique sélectionne un ensemble de gènes pertinents pour un classifieur SVM. Dans la deuxième, nous proposons une méthode intégrée où les informations fournies par un classifieur linéaire (ADL) guident le processus de recherche vers un sous-ensemble de petite taille et performant pour la classification. Les différentes expérimentations que nous avons menées montrent de très bonnes performances, surtout pour la méthode intégrée.
|
20 |
Rangement d'objets multiboîtes : modèles et algorithmesLemaire, Pierre 06 September 2004 (has links) (PDF)
Un objet multiboîte est composé de plusieurs parties identiques qui doivent être rangées dans des boîtes différentes. La hauteur d'une boîte est alors la somme des hauteurs des objets qu'elle contient. Ce concept généralise et englobe de nombreux problèmes de la littérature de la recherche opérationnelle.<br /><br />Une classification de ces modèles est proposée. Les bases théoriques sont posées. En particulier, la complexité pour les principaux types d'objets et objectifs est déterminée.<br /><br />Une étude détaillée est effectuée lorsque les objets ont des largeurs constantes et que l'on veut minimiser la hauteur de la boîte la plus haute. Des bornes inférieures, des heuristiques avec de très bonnes garanties de performance et un algorithme génétique sont proposés pour résoudre ce modèle. Leurs comportements théoriques et expérimentaux sont analysés.
|
Page generated in 0.0681 seconds