• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 33
  • 1
  • Tagged with
  • 79
  • 79
  • 79
  • 47
  • 41
  • 16
  • 16
  • 14
  • 14
  • 11
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Towards using intelligent techniques to assist software specialists in their tasks

Ben Sghaier, Oussama 11 1900 (has links)
L’automatisation et l’intelligence constituent des préoccupations majeures dans le domaine de l’Informatique. Avec l’évolution accrue de l’Intelligence Artificielle, les chercheurs et l’industrie se sont orientés vers l’utilisation des modèles d’apprentissage automatique et d’apprentissage profond pour optimiser les tâches, automatiser les pipelines et construire des systèmes intelligents. Les grandes capacités de l’Intelligence Artificielle ont rendu possible d’imiter et même surpasser l’intelligence humaine dans certains cas aussi bien que d’automatiser les tâches manuelles tout en augmentant la précision, la qualité et l’efficacité. En fait, l’accomplissement de tâches informatiques nécessite des connaissances, une expertise et des compétences bien spécifiques au domaine. Grâce aux puissantes capacités de l’intelligence artificielle, nous pouvons déduire ces connaissances en utilisant des techniques d’apprentissage automatique et profond appliquées à des données historiques représentant des expériences antérieures. Ceci permettra, éventuellement, d’alléger le fardeau des spécialistes logiciel et de débrider toute la puissance de l’intelligence humaine. Par conséquent, libérer les spécialistes de la corvée et des tâches ordinaires leurs permettra, certainement, de consacrer plus du temps à des activités plus précieuses. En particulier, l’Ingénierie dirigée par les modèles est un sous-domaine de l’informatique qui vise à élever le niveau d’abstraction des langages, d’automatiser la production des applications et de se concentrer davantage sur les spécificités du domaine. Ceci permet de déplacer l’effort mis sur l’implémentation vers un niveau plus élevé axé sur la conception, la prise de décision. Ainsi, ceci permet d’augmenter la qualité, l’efficacité et productivité de la création des applications. La conception des métamodèles est une tâche primordiale dans l’ingénierie dirigée par les modèles. Par conséquent, il est important de maintenir une bonne qualité des métamodèles étant donné qu’ils constituent un artéfact primaire et fondamental. Les mauvais choix de conception, ainsi que les changements conceptuels répétitifs dus à l’évolution permanente des exigences, pourraient dégrader la qualité du métamodèle. En effet, l’accumulation de mauvais choix de conception et la dégradation de la qualité pourraient entraîner des résultats négatifs sur le long terme. Ainsi, la restructuration des métamodèles est une tâche importante qui vise à améliorer et à maintenir une bonne qualité des métamodèles en termes de maintenabilité, réutilisabilité et extensibilité, etc. De plus, la tâche de restructuration des métamodèles est délicate et compliquée, notamment, lorsqu’il s’agit de grands modèles. De là, automatiser ou encore assister les architectes dans cette tâche est très bénéfique et avantageux. Par conséquent, les architectes de métamodèles pourraient se concentrer sur des tâches plus précieuses qui nécessitent de la créativité, de l’intuition et de l’intelligence humaine. Dans ce mémoire, nous proposons une cartographie des tâches qui pourraient être automatisées ou bien améliorées moyennant des techniques d’intelligence artificielle. Ensuite, nous sélectionnons la tâche de métamodélisation et nous essayons d’automatiser le processus de refactoring des métamodèles. A cet égard, nous proposons deux approches différentes: une première approche qui consiste à utiliser un algorithme génétique pour optimiser des critères de qualité et recommander des solutions de refactoring, et une seconde approche qui consiste à définir une spécification d’un métamodèle en entrée, encoder les attributs de qualité et l’absence des design smells comme un ensemble de contraintes et les satisfaire en utilisant Alloy. / Automation and intelligence constitute a major preoccupation in the field of software engineering. With the great evolution of Artificial Intelligence, researchers and industry were steered to the use of Machine Learning and Deep Learning models to optimize tasks, automate pipelines, and build intelligent systems. The big capabilities of Artificial Intelligence make it possible to imitate and even outperform human intelligence in some cases as well as to automate manual tasks while rising accuracy, quality, and efficiency. In fact, accomplishing software-related tasks requires specific knowledge and skills. Thanks to the powerful capabilities of Artificial Intelligence, we could infer that expertise from historical experience using machine learning techniques. This would alleviate the burden on software specialists and allow them to focus on valuable tasks. In particular, Model-Driven Engineering is an evolving field that aims to raise the abstraction level of languages and to focus more on domain specificities. This allows shifting the effort put on the implementation and low-level programming to a higher point of view focused on design, architecture, and decision making. Thereby, this will increase the efficiency and productivity of creating applications. For its part, the design of metamodels is a substantial task in Model-Driven Engineering. Accordingly, it is important to maintain a high-level quality of metamodels because they constitute a primary and fundamental artifact. However, the bad design choices as well as the repetitive design modifications, due to the evolution of requirements, could deteriorate the quality of the metamodel. The accumulation of bad design choices and quality degradation could imply negative outcomes in the long term. Thus, refactoring metamodels is a very important task. It aims to improve and maintain good quality characteristics of metamodels such as maintainability, reusability, extendibility, etc. Moreover, the refactoring task of metamodels is complex, especially, when dealing with large designs. Therefore, automating and assisting architects in this task is advantageous since they could focus on more valuable tasks that require human intuition. In this thesis, we propose a cartography of the potential tasks that we could either automate or improve using Artificial Intelligence techniques. Then, we select the metamodeling task and we tackle the problem of metamodel refactoring. We suggest two different approaches: A first approach that consists of using a genetic algorithm to optimize set quality attributes and recommend candidate metamodel refactoring solutions. A second approach based on mathematical logic that consists of defining the specification of an input metamodel, encoding the quality attributes and the absence of smells as a set of constraints and finally satisfying these constraints using Alloy.
72

Représentation de solution en optimisation continue, multi-objectif et applications / Representation of solution in continuous and multi-objectif of optimization with applications

Zidani, Hafid 26 October 2013 (has links)
Cette thèse a pour objectif principal le développement de nouveaux algorithmes globaux pour la résolution de problèmes d’optimisation mono et multi-objectif, en se basant sur des formules de représentation ayant la tâche principale de générer des points initiaux appartenant à une zone proche du minimum globale. Dans ce contexte, une nouvelle approche appelée RFNM est proposée et testée sur plusieurs fonctions non linéaires, non différentiables et multimodales. D’autre part, une extension à la dimension infinie a été établie en proposant une démarche pour la recherche du minimum global. Par ailleurs, plusieurs problèmes de conception mécanique, à caractère aléatoire, ont été considérés et résolus en utilisant cette approche, avec amélioration de la méthode multi-objectif NNC. Enfin, une contribution à l'optimisation multi-objectif par une nouvelle approche a été proposée. Elle permet de générer un nombre suffisant de points pour représenter la solution optimale de Pareto. / The main objective of this work is to develop new global algorithms to solve single and multi-objective optimization problems, based on the representation formulas with the main task to generate initial points belonging to an area close to the global minimum. In this context, a new approach called RFNM is proposed and tested on several nonlinear, non-differentiable and multimodal finctions. On the other hand, an extension to the infinite dimension was established by proposing an approach for finding the global minimum. Moreover,several random mechanical design problems were considered and resolved using this approach, and improving the NNC multi-objective method. Finally, a new multi-objective optimization method called RSMO is presented. It solves the multi-objective optimization problems by generating a sufficient number o fpoints in the Pareto front.
73

Contributions à la fusion de segmentations et à l’interprétation sémantique d’images

Khelifi, Lazhar 08 1900 (has links)
No description available.
74

Ecodesign of large-scale photovoltaic (PV) systems with multi-objective optimization and Life-Cycle Assessment (LCA) / Écoconception de systèmes photovoltaïques (PV) à grande échelle par optimisation multi-objectif et Analyse du Cycle de Vie (ACV)

Perez Gallardo, Jorge Raúl 25 October 2013 (has links)
En raison de la demande croissante d’énergie dans le monde et des nombreux dommages causés par l’utilisation des énergies fossiles, la contribution des énergies renouvelables a augmenté de manière significative dans le mix énergétique global dans le but de progresser vers un développement plus durable. Dans ce contexte, ce travail vise à l’élaboration d’une méthodologie générale pour la conception de systèmes photovoltaïques, basée sur les principes d’écoconception, en tenant compte simultanément des considérations technico-économiques et environnementales. Afin d’évaluer la performance environnementale des systèmes PV, une technique d’évaluation environnementale basée sur l’Analyse du Cycle de Vie (ACV) a été utilisée. Le modèle environnemental a été couplé d’une manière satisfaisante avec le modèle de conception d’un système PV connecté au réseau pour obtenir un modèle global, apte à un traitement par optimisation. Le modèle de conception du système PV résultant a été développé en faisant intervenir l’estimation du rayonnement solaire reçu dans une zone géographique concernée, le calcul de la quantité annuelle d’énergie produite à partir du rayonnement solaire reçu, les caractéristiques des différents composants et l’évaluation des critères technico-économiques à travers le temps de retour énergétique et le temps de retour sur investissement. Le modèle a ensuite été intégré dans une boucle d’optimisation multi-objectif externe basée sur une variante de l’algorithme génétique NSGA-II. Un ensemble de solutions du Pareto a été généré représentant le compromis optimal entre les différents objectifs considérés dans l’analyse. Une méthode basée sur une Analyse en Composantes Principales (ACP) est appliquée pour détecter et enlever les objectifs redondants de l’analyse sans perturber les caractéristiques principales de l’espace des solutions. Enfin, un outil d’aide à la décision basé sur M- TOPSIS a été utilisé pour sélectionner l’option qui offre un meilleur compromis entre toutes les fonctions objectifs considérées et étudiées. Bien que les modules photovoltaïques à base de silicium cristallin (c-Si) ont une meilleure performance vis-à-vis de la production d’énergie, les résultats ont montré que leur impact environnement est le plus élevé des filières technologiques de production de panneaux. Les technologies en « couches minces » présentent quant à elles le meilleur compromis dans tous les scénarios étudiés. Une attention particulière a été accordée aux processus de recyclage des modules PV, en dépit du peu d’informations disponibles pour toutes les technologies évaluées. La cause majeure de ce manque d’information est la durée de vie relativement élevée des modules photovoltaïques. Les données relatives aux procédés de recyclage pour les technologies basées sur CdTe et m-Si sont introduites dans la procédure d’optimisation par l’écoconception. En tenant compte de la production d’énergie et du temps de retour sur énergie comme critères d’optimisation, l’avantage de la gestion de fin de vie des modules PV a été confirmé. Une étude économique de la stratégie de recyclage doit être considérée et étudiée afin d’avoir une vision plus globale pour la prise de décision. / Because of the increasing demand for the provision of energy worldwide and the numerous damages caused by a major use of fossil sources, the contribution of renewable energies has been increasing significantly in the global energy mix with the aim at moving towards a more sustainable development. In this context, this work aims at the development of a general methodology for designing PV systems based on ecodesign principles and taking into account simultaneously both techno-economic and environmental considerations. In order to evaluate the environmental performance of PV systems, an environmental assessment technique was used based on Life Cycle Assessment (LCA). The environmental model was successfully coupled with the design stage model of a PV grid-connected system (PVGCS). The PVGCS design model was then developed involving the estimation of solar radiation received in a specific geographic location, the calculation of the annual energy generated from the solar radiation received, the characteristics of the different components and the evaluation of the techno-economic criteria through Energy PayBack Time (EPBT) and PayBack Time (PBT). The performance model was then embedded in an outer multi-objective genetic algorithm optimization loop based on a variant of NSGA-II. A set of Pareto solutions was generated representing the optimal trade-off between the objectives considered in the analysis. A multi-variable statistical method (i.e., Principal Componet Analysis, PCA) was then applied to detect and omit redundant objectives that could be left out of the analysis without disturbing the main features of the solution space. Finally, a decision-making tool based on M-TOPSIS was used to select the alternative that provided a better compromise among all the objective functions that have been investigated. The results showed that while the PV modules based on c-Si have a better performance in energy generation, the environmental aspect is what makes them fall to the last positions. TF PV modules present the best trade-off in all scenarios under consideration. A special attention was paid to recycling process of PV module even if there is not yet enough information currently available for all the technologies evaluated. The main cause of this lack of information is the lifetime of PV modules. The data relative to the recycling processes for m-Si and CdTe PV technologies were introduced in the optimization procedure for ecodesign. By considering energy production and EPBT as optimization criteria into a bi-objective optimization cases, the importance of the benefits of PV modules end-of-life management was confirmed. An economic study of the recycling strategy must be investigated in order to have a more comprehensive view for decision making.
75

Écoconception de procédés : approche systémique couplant modélisation globale, analyse du cycle de vie et optimisation multiobjectif / Eco-design of chemical processes : an integrated approach coupling process modeling, life cycle assessment and multi-objective optimization

Morales Mendoza, Luis Fernando 04 December 2013 (has links)
L’objectif de ce travail est de développer un cadre méthodologique et générique d’éco-conception de procédés chimiques couplant des outils de modélisation et de simulation traditionnels de procédés (HYSYS, COCO, ProSimPlus et Ariane), d’Analyse du Cycle de Vie (ACV), d’optimisation multiobjectif basée sur des Algorithmes Génétiques et enfin des outils d’aide à la décision multicritère (ELECTRE, PROMETHEE, M-TOPSIS). Il s’agit de généraliser, d’automatiser et d’optimiser l’évaluation des impacts environnementaux au stade préliminaire de la conception d’un procédé chimique. L’approche comprend trois étapes principales. Les deux premières correspondent d’une part aux phases d’analyse de l’inventaire par calcul des bilans de matière et d’énergie et d’autre part à l’évaluation environnementale par ACV. Le problème du manque d’information ou de l’imprécision dans les bases de données classiques en ACV pour la production d’énergie notamment sous forme de vapeur largement utilisée dans les procédés a reçu une attention particulière. Une solution proposée consiste à utiliser un simulateur de procédés de production d’utilités (Ariane, ProSim SA) pour contribuer à alimenter la base de données environnementale en tenant compte de variations sur les conditions opératoires ou sur les technologies utilisées. Des sous-modules « énergie » sont ainsi proposés pour calculer les émissions relatives aux impacts liés à l’utilisation de l’énergie dans les procédés. La troisième étape réalise l’interaction entre les deux premières phases et l’optimisation multi-objectif qui met en jeu des critères économiques et environnementaux. Elle conduit à des solutions de compromis le long du front de Pareto à partir desquelles les meilleures sont choisies à l’aide de méthodes d’aide à la décision. L’approche est appliquée à des procédés de production continus : production de benzène par hydrodéalkylation du toluène HDA et production de biodiesel à partir d’huiles végétales. Une stratégie à plusieurs niveaux est mise en oeuvre pour l'analyse de l'optimisation multi-objectif. Elle est utilisée dans les deux cas d'étude afin d'analyser les comportements antagonistes des critères. / The objective of this work is to propose an integrated and generic framework for eco-design coupling traditional modelling and flowsheeting simulation tools (HYSYS, COCO, ProSimPlus and Ariane), Life Cycle Assessment, multi-objective optimization based on Genetic Algorithms and multiple criteria decision-making methods MCDM (Multiple Choice Decision Making, such as ELECTRE, PROMETHEE, M-TOPSIS) that generalizes, automates and optimizes the evaluation of the environmental criteria at earlier design stage. The approach consists of three main stages. The first two steps correspond respectively to process inventory analysis based on mass and energy balances and impact assessment phases of LCA methodology. Specific attention is paid to the main issues that can be encountered with database and impact assessment i.e. incomplete or missing information, or approximate information that does not match exactly the real situation that may introduce a bias in the environmental impact estimation. A process simulation tool dedicated to production utilities, Ariane, ProSim SA is used to fill environmental database gap, by the design of specific energy sub modules, so that the life cycle energy related emissions for any given process can be computed. The third stage of the methodology is based on the interaction of the previous steps with process simulation for environmental impact assessment and cost estimation through a computational framework. The use of multi-objective optimization methods generally leads to a set of efficient solutions, the so-called Pareto front. The next step consists in identifying the best ones through MCDM methods. The approach is applied to two processes operating in continuous mode. The capabilities of the methodology are highlighted through these case studies (benzene production by HDA process and biodiesel production from vegetable oils). A multi-level assessment for multi-objective optimization is implemented for both cases, the explored pathways depending on the analysis and antagonist behaviour of the criteria.
76

Optimisation multi-objectif et aide à la décision pour la conception robuste. : Application à une structure industrielle sur fondations superficielles / Multi-objective optimization and decision aid for robust design : application to an industrial structure on spread foundations

Piegay, Nicolas 17 December 2015 (has links)
La conception des ouvrages en Génie Civil se fait habituellement de manière semi-probabiliste en employant des valeurs caractéristiques auxquelles sont associées des facteurs partiels de sécurité. Toutefois, de telles approches ne permettent pas de garantir la robustesse de l’ouvrage conçu vis-à-vis des sources d’incertitudes susceptibles d’affecter ses performances au cours de sa réalisation et de son fonctionnement. Nous proposons dans ce mémoire une méthodologie d’aide à la décision pour la conception robuste des ouvrages qui est appliquée à une structure métallique reposant sur des fondations superficielles. La conception de cet ouvrage est conduite en intégrant le phénomène d’interaction sol-structure qui implique que les choix de conception faits sur la fondation influencent ceux faits sur la structure supportée (et réciproquement). La démarche de conception proposée fait appel à des outils d’optimisation multi-objectif et d’aide à la décision afin d’obtenir une solution qui offre le meilleur compromis entre l’ensemble des préférences énoncées par le décideur sur chaque critère de conception. Des analyses de sensibilité sont menées parallèlement dans le but d’identifier et de quantifier les sources d’incertitude les plus influentes sur la variabilité des performances de l’ouvrage. Ces sources d’incertitude représentées sous une forme probabiliste sont intégrées dans la procédure de conception et propagées à l’aide d’une méthode d’échantillonnage par hypercube latin. Une partie du mémoire est consacrée à l’analyse des effets de l’incertitude relative à la modélisation des paramètres géotechniques sur la réponse de l’ouvrage et sur la démarche plus globale d’optimisation. / Design in Civil Engineering is usually performed in a semi-probabilistic way using characteristic values which are associated with partial safety factors. However, this approach doesn’t guarantee the structure robustness with regard to uncertainties that could affect its performance during construction and operation. In this thesis, we propose a decision aid methodology for robust design of steel frame on spread foundations. Soil-structure interaction is taken into consideration in the design process implying that the design choices on foundations influence the design choices on steel frame (and vice versa). The proposed design approach uses multi-objective optimization and decision aid methods in order to obtain the best solution with respect to the decision-maker’s preferences on each criterion. Furthermore, sensitivity analyzes are performed in order to identify and quantify the most influencing uncertainty sources on variability of the structure performances. These uncertainties are modeled as random variables and propagated in the design process using latin hypercube sampling. A part of this dissertation is devoted to the effects of uncertainties involved in soil properties on the structure responses and on the design global approach.
77

Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles

Zhang, Zebin 15 December 2014 (has links)
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires. / The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations.
78

Modélisation multi-physique par modèles à constantes localisées ; application à une machine synchrone à aimants permanents en vue de son dimensionnement. / Multi-Physical modelling lumped models; application to a synchronous machine with permanent magnets for the sizing

Bracikowski, Nicolas 04 December 2012 (has links)
Afin de définir une conception optimale d’un système électromécanique, celui-ci doit intégrer des contraintes toujours plus drastiques et de nombreux phénomènes physiques issus de : l’électromagnétique, l’aérothermique, l’électronique, la mécanique et l’acoustique. L’originalité de cette thèse est de proposer une modélisation multi-physique pour la conception reposant sur des modèles à constantes localisées : solution intermédiaire entre la modélisation analytique et numérique. Ces différents modèles permettront l’étude et la conception sous contraintes d’une machine synchrone à aimants permanents dédiée pour la traction ferroviaire. Les résultats de simulations seront comparés à des résultats éléments finis mais aussi à des essais expérimentaux. Ce modèle multi-physique est entièrement paramétré afin d’être associé à des outils d’optimisation. On utilisera ici une optimisation par essaim de particules pour chercher des compromis entre différents objectifs sous forme de Front de Pareto. Dans ce papier, nous ciblerons les objectifs suivants : le couple d’origine électromagnétique et le bruit d’origine électromagnétique. Finalement une étude de sensibilité valide la robustesse de la conception retenue quand celle-ci est soumise aux contraintes de fabrication. L’objectif étant de poser les bases d’un outil d’aide à la décision pour le choix d’une machine électrique / In order to perform an optimal design of electromechanical system, the designer must take into account ever more stringent constraints and many physical phenomena from electric, magnetic, aeraulic, thermic, electronic, mechanic and acoustic. The originality of this thesis is to put forward a multi-physic design based on lumped models: halfway between analytical and numerical modeling. These models allow sizing a permanent magnet synchronous machine under constraints for rail traction. The results are validated with finite element simulations and experimental analysis. The multi-physic modeling is fully automated, parameterized, in order to combine the model with the optimization tool. We used here particle swarm optimization to search compromises between several objectives (Pareto Front). In this paper, we focus on electromagnetic torque and electromagnetic noise. Finally a sensitive study validates the robustness of selected design when it is subjected to manufacturing constraints. The aim of this work is to propose a decision tool to size electrical machines
79

Approches intelligentes pour le pilotage adaptatif des systèmes en flux tirés dans le contexte de l'industrie 4.0 / Intelligent approaches for handling adaptive pull control systems in the context of industry 4.0

Azouz, Nesrine 28 June 2019 (has links)
De nos jours, de nombreux systèmes de production sont gérés en flux « tirés » et utilisent des méthodes basées sur des « cartes », comme : Kanban, ConWIP, COBACABANA, etc. Malgré leur simplicité et leur efficacité, ces méthodes ne sont pas adaptées lorsque la production n’est pas stable et que la demande du client varie. Dans de tels cas, les systèmes de production doivent donc adapter la tension de leur flux tout au long du processus de fabrication. Pour ce faire, il faut déterminer comment ajuster dynamiquement le nombre de cartes (ou de ‘e-card’) en fonction du contexte. Malheureusement, ces décisions sont complexes et difficiles à prendre en temps réel. De plus, dans certains cas, changer trop souvent le nombre de cartes kanban peut perturber la production et engendrer un problème de nervosité. Les opportunités offertes par l’industrie 4.0 peuvent être exploitées pour définir des stratégies intelligentes de pilotage de flux permettant d’adapter dynamiquement ce nombre de cartes kanban.Dans cette thèse, nous proposons, dans un premier temps, une approche adaptative basée sur la simulation et l'optimisation multi-objectif, capable de prendre en considération le problème de la nervosité et de décider de manière autonome (ou d'aider les gestionnaires)  quand et où ajouter ou retirer des cartes Kanban. Dans un deuxième temps, nous proposons une nouvelle approche adaptative et intelligente basée sur un réseau de neurones dont l’apprentissage est d’abord réalisé hors ligne à l’aide d’un modèle numérique jumeau (simulation), exploité par une optimisation multi-objectif. Après l’apprentissage, le réseau de neurones permet de décider en temps réel, quand et à quelle étape de fabrication il est pertinent de changer le nombre de cartes kanban. Des comparaisons faites avec les meilleures méthodes publiées dans la littérature montrent de meilleurs résultats avec des changements moins fréquents. / Today, many production systems are managed in "pull" control system and used "card-based" methods such as: Kanban, ConWIP, COBACABANA, etc. Despite their simplicity and efficiency, these methods are not suitable when production is not stable and customer demand varies. In such cases, the production systems must therefore adapt the “tightness” of their production flow throughout the manufacturing process. To do this, we must determine how to dynamically adjust the number of cards (or e-card) depending on the context. Unfortunately, these decisions are complex and difficult to make in real time. In addition, in some cases, changing too often the number of kanban cards can disrupt production and cause a nervousness problem. The opportunities offered by Industry 4.0 can be exploited to define smart flow control strategies to dynamically adapt this number of kanban cards.In this thesis, we propose, firstly, an adaptive approach based on simulation and multi-objective optimization technique, able to take into account the problem of nervousness and to decide autonomously (or to help managers) when and where adding or removing Kanban cards. Then, we propose a new adaptive and intelligent approach based on a neural network whose learning is first realized offline using a twin digital model (simulation) and exploited by a multi-objective optimization method. Then, the neural network could be able to decide in real time, when and at which manufacturing stage it is relevant to change the number of kanban cards. Comparisons made with the best methods published in the literature show better results with less frequent changes.

Page generated in 0.2818 seconds