• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 22
  • 5
  • 1
  • 1
  • Tagged with
  • 142
  • 142
  • 62
  • 52
  • 48
  • 40
  • 40
  • 29
  • 28
  • 25
  • 21
  • 18
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Methodology of surface defect detection using machine vision with magnetic particle inspection on tubular material / Méthodologie de détection des défauts de surface par vision artificielle avec magnetic particle inspection sur le matériel tubulaire

Mahendra, Adhiguna 08 November 2012 (has links)
[...]L’inspection des surfaces considérées est basée sur la technique d’Inspection par Particules Magnétiques (Magnetic Particle Inspection (MPI)) qui révèle les défauts de surfaces après les traitements suivants : la surface est enduite d’une solution contenant les particules, puis magnétisées et soumise à un éclairage Ultra-Violet. La technique de contrôle non destructif MPI est une méthode bien connue qui permet de révéler la présence de fissures en surface d’un matériau métallique. Cependant, une fois le défaut révélé par le procédé, ladétection automatique sans intervention de l’opérateur en toujours problématique et à ce jour l'inspection basée sur le procédé MPI des matériaux tubulaires sur les sites de production deVallourec est toujours effectuée sur le jugement d’un opérateur humain. Dans cette thèse, nous proposons une approche par vision artificielle pour détecter automatiquement les défauts à partir des images de la surface de tubes après traitement MPI. Nous avons développé étape par étape une méthodologie de vision artificielle de l'acquisition d'images à la classification.[...] La première étape est la mise au point d’un prototype d'acquisition d’images de la surface des tubes. Une série d’images a tout d’abord été stockée afin de produire une base de données. La version actuelle du logiciel permet soit d’enrichir la base de donnée soit d’effectuer le traitement direct d’une nouvelle image : segmentation et saisie de la géométrie (caractéristiques de courbure) des défauts. Mis à part les caractéristiques géométriques et d’intensité, une analyse multi résolution a été réalisée sur les images pour extraire des caractéristiques texturales. Enfin la classification est effectuée selon deux classes : défauts et de non-défauts. Celle ci est réalisée avec le classificateur des forêts aléatoires (Random Forest) dont les résultats sontcomparés avec les méthodes Support Vector Machine et les arbres de décision.La principale contribution de cette thèse est l'optimisation des paramètres utilisées dans les étapes de segmentations dont ceux des filtres de morphologie mathématique, du filtrage linéaire utilisé et de la classification avec la méthode robuste des plans d’expériences (Taguchi), très utilisée dans le secteur de la fabrication. Cette étape d’optimisation a été complétée par les algorithmes génétiques. Cette méthodologie d’optimisation des paramètres des algorithmes a permis un gain de temps et d’efficacité significatif. La seconde contribution concerne la méthode d’extraction et de sélection des caractéristiques des défauts. Au cours de cette thèse, nous avons travaillé sur deux bases de données d’images correspondant à deux types de tubes : « Tool Joints » et « Tubes Coupling ». Dans chaque cas un tiers des images est utilisé pour l’apprentissage. Nous concluons que le classifieur du type« Random Forest » combiné avec les caractéristiques géométriques et les caractéristiques detexture extraites à partir d’une décomposition en ondelettes donne le meilleur taux declassification pour les défauts sur des pièces de « Tool Joints »(95,5%) (Figure 1). Dans le cas des « coupling tubes », le meilleur taux de classification a été obtenu par les SVM avec l’analyse multirésolution (89.2%) (figure.2) mais l’approche Random Forest donne un bon compromis à 82.4%. En conclusion la principale contrainte industrielle d’obtenir un taux de détection de défaut de 100% est ici approchée mais avec un taux de l’ordre de 90%. Les taux de mauvaises détections (Faux positifs ou Faux Négatifs) peuvent être améliorés, leur origine étant dans l’aspect de l’usinage du tube dans certaines parties, « Hard Bending ».De plus, la méthodologie développée peut être appliquée à l’inspection, par MPI ou non, de différentes lignes de produits métalliques / Industrial surface inspection of tubular material based on Magnetic Particle Inspection (MPI) is a challenging task. Magnetic Particle Inspection is a well known method for Non Destructive Testing with the goal to detect the presence of crack in the tubular surface. Currently Magnetic Particle Inspection for tubular material in Vallourec production site is stillbased on the human inspector judgment. It is time consuming and tedious job. In addition, itis prone to error due to human eye fatigue. In this thesis we propose a machine vision approach in order to detect the defect in the tubular surface MPI images automatically without human supervision with the best detection rate. We focused on crack like defects since they represent the major ones. In order to fulfill the objective, a methodology of machine vision techniques is developed step by step from image acquisition to defect classification. The proposed framework was developed according to industrial constraint and standard hence accuracy, computational speed and simplicity were very important. Based on Magnetic Particle Inspection principles, an acquisition system is developed and optimized, in order to acquire tubular material images for storage or processing. The characteristics of the crack-like defects with respect to its geometric model and curvature characteristics are used as priory knowledge for mathematical morphology and linear filtering. After the segmentation and binarization of the image, vast amount of defect candidates exist. Aside from geometrical and intensity features, Multi resolution Analysis wasperformed on the images to extract textural features. Finally classification is performed with Random Forest classifier due to its robustness and speed and compared with other classifiers such as with Support Vector Machine Classifier. The parameters for mathematical morphology, linear filtering and classification are analyzed and optimized with Design Of Experiments based on Taguchi approach and Genetic Algorithm. The most significant parameters obtained may be analyzed and tuned further. Experiments are performed ontubular materials and evaluated by its accuracy and robustness by comparing ground truth and processed images. This methodology can be replicated for different surface inspection application especially related with surface crack detection
132

Méthodologie de conception numérique d'un module de puissance dédié à l'automobile en vue de l'optimisation des surtensions, des pertes et des émissions conduites / Methodology of numerical design of a power module dedicated to the automobile with optimizing overvoltages, losses and conducted emissions

Daou, Hocine 08 February 2018 (has links)
Le véhicule électrique (VE) s'inscrit actuellement dans un contexte industriel fortement corrélé aux contraintes environnementales. Un tel contexte où la minimisation des coûts est également vitale impose par conséquent des contraintes de développement et de réalisation. Les modules de puissance constituent un coût conséquent dans un système de conversion pour l'automobile. Nous nous plaçons dans le contexte des modules de puissance à IGBT en technologie silicium qui assurent les fonctions de conversion d’énergie (AC/DC ou DC/AC) pour des applications moyennes et fortes puissances. L’un des points les plus limitant de ces modules est l’aspect inductif de la maille de commutation. L’intégration de condensateurs de découplage (Ceq) au sein du module permet de réduire les effets des inductances parasites car ils offrent un chemin à basse impédance au courant commuté et augmentent la vitesse de commutation du composant. C’est cette solution que nous avons étudiée. Le but est de démontrer la faisabilité d’une telle solution couplée avec le choix optimal de la résistance de grille (Rg) des puces IGBT. Nous avons établi des règles de conception permettant la construction de modèles circuit d’un bras d’onduleur permettant l’intégration de fonction de découplage. Ce dernier nous a permis dans un premier temps de réduire les surtensions aux bornes des composants mais les pertes par commutation n’ont pas pu être améliorées significativement en comparaison à un module conventionnel. La démarche suivie pour aller plus loin a consisté à chercher un compromis entre les valeurs des condensateurs distribués dans le module et le choix des résistances de grille des puces IGBT. L’optimisation par algorithmes génétiques est la solution qui a été trouvée pour contourner les problèmes bloquants et améliorer significativement les performances du module. / Modern converter concepts demand increasing energy efficiency and flexibility in de-sign and construction. Considering that the dependency of the switching losses on various factors such as the switching voltage, switching current, stray inductance (Lstray) and the reverse recovery process of the freewheeling diode, various concepts have been developed to decrease power modules stray inductance for the purpose of loss reduction but with risk of exceeding the maximum rated blocking voltage. However, considering practical design requirement, lower stray inductance is not necessarily beneficial for the system. This leads to the question of tolerable size of parasitic inductance and best dI/di and dv/dt rate for low commutation losses and low voltage spikes. In this thesis, design methodology for a low inductive, Modern converter concepts demand increasing energy efficiency and flexibility in de-sign and construction. Considering that the dependency of the switching losses on various factors such as the switching voltage, switching current, stray inductance (Lstray) and the reverse recovery process of the freewheeling diode, various concepts have been developed to decrease power modules stray inductance for the purpose of loss reduction but with risk of exceeding the maximum rated blocking voltage. However, considering practical design requirement, lower stray inductance is not necessarily beneficial for the system. This leads to the question of tolerable size of parasitic inductance and best dI/di and dv/dt rate for low commutation losses and low voltage spikes. In this thesis, design methodology for a low inductive,
133

Modeling and optimization of tubular polymerization reactors / Modélisation et optimisation des réacteurs tubulaires de polymérisation

Banu, Ionut 17 July 2009 (has links)
Le but de cette thèse est l’investigation des particularités des problèmes d’optimisation et modélisation des réacteurs tubulaires de polymérisation. La partie originale du travail est divisé en deux sections : la première traitant de l'étude théorique de la modélisation et de l’optimisation des réacteurs tubulaires de polymérisation du méthacrylate de méthyle en solution, et la deuxième, une étude expérimentale et théorique de l'extrusion réactive de L-lactide. Dans la première partie, afin de sélectionner un modèle cinétique représentatif, parmi les modèles publiés pour le processus de polymérisation de MMA, des simulations ont été effectuées en conditions identiques de fonctionnement. Deux algorithmes numériques, l’un basé sur le Principe du Minimum de Pontriaguine et l’autre de type Génétique, ont été comparés pour un problème d'optimisation de complexité moyenne. Les résultats ont montré une robustesse supérieure de l’Algorithme Génétique pour cette catégorie de problèmes. La deuxième partie de la thèse est consacrée à la modélisation et à l’optimisation de l'extrusion réactive du Llactide. Nous avons proposé un modèle cinétique et ses paramètres ont été estimés en utilisant des procédures numériques basées sur les données cinétiques expérimentales. Les expériences d'extrusion réactives ont été exécutées dans les conditions de fonctionnement représentatives. L'écoulement de L-lactide/polylactide dans l'extrudeuse a été caractérisé par la simulation en utilisant un logiciel commercial, LUDOVIC®. Les caractéristiques de la distribution des temps de séjour simulées sont utilisées pour modéliser le processus d'extrusion réactive en utilisant deux approches, un modèle à dispersion axiale et un modèle à base de compartiments, dont les caractéristiques sont déduites des simulations effectuées avec LUDOVIC®. Les résultats de la modélisation du processus sont en bon accord avec des données mesurées en mêmes conditions opératoires. / The aim of this thesis is the investigation of modeling and optimization particularities of tubular polymerization reactors. The original work is divided in two sections, the first treating a modeling and optimization study of tubular reactors for methyl methacrylate polymerization in solution, and the second, an experimental and theoretical study of L-lactide reactive extrusion. In the first section, reactor simulations in similar operating conditions were performed in order to select a representative kinetic model among the published kinetic models for MMA solution polymerization. Two widely used numerical algorithms, one based on Pontryagin’s Minimum Principle and the other a Genetic Algorithm, were compared for an average-complexity optimization problem. The results showed a superior robustness of the Genetic Algorithm for this category of problems. The second part of the thesis deals with the modeling and optimization of L-lactide reactive extrusion. A kinetic model is proposed and its parameters estimated using nonlinear estimation numerical procedures based on experimentally measured data. Reactive extrusion experiments were performed in representative operating conditions. The Llactide/ polylactide flow in the extruder was characterized by simulation using the commercial software LUDOVIC®. The simulated residence time distributions characteristics are used to model the reactive extrusion process of two approaches, an axial dispersion model and a compartment model, based on compartments whose characteristics are deduced from the simulations using LUDOVIC®. The modeling results are in good agreement with the measured data in the same operating conditions.
134

Ordonnancement des opérations dans une unité d'extrusion

Zaatour, Dhiaeddine 24 April 2018 (has links)
Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique / The thesis deals with the optimization of the production on a number of machines subject to limited availability of the resources in an extrusion facility. Because of its importance to meet deadlines, the objective is to minimize the sum of weighted tardiness. This work presents a linear formulation of the problem and a number of heuristic solution methods. The proposed heuristic solution methods can be divided into two main groups: construction methods and neighborhood search methods. Also solution construction methods are divided in two sub-groups: parallel construction heuristics and serial construction heuristics. Adaptations of the simulated annealing algorithm (SA), the genetic algorithm (GA), the Tabu search (TS) method and the Greedy randomized adaptive search procedure (GRASP) are developed. Five neighborhood structures are used within the four tested neighborhood search algorithms. In our problem, setup times are sequence dependent. Also, extruders and dies are the bottleneck piece of equipment in this industrial setting. Several problem instances were generated for the evaluation of heuristic scheduling algorithms. The experimental study shows that the construction heuristics are not sufficient to ensure good results, however the proposed neighborhood search methods perform very well. Also, the structure of neighborhoods plays an important role to guarantee better results. Keywords: scheduling, optimization, extrusion, mathematical formulation, heuristic, simulated-annealing, tabu-search, GRASP, genetic algorithm
135

Contribution au calcul des élévations de potentiel de sol en contexte ferroviaire / Contribution to calculation of ground potentiel rising in railway context

Papaiz Garbini, Gabriel 25 June 2015 (has links)
Le système électrique ferroviaire est composé d'un ensemble de conducteurs métalliques de différentes natures et ayant, pour la plupart d'entre eux, la particularité d'avoir une longueur très importante par rapport aux dimensions transversales. Cet ensemble de conducteurs est inséré dans un environnement complexe composé de plusieurs autres éléments, tel que le réseau de transport d'énergie à haute tension, le réseau de gaz, le réseau des télécommunications, ainsi que des habitations, des passagers, des rivières, des fermes, etc. Pour assurer sa bonne compatibilité électromagnétique avec l'environnement, il est important de limiter les niveaux d'émissions électromagnétiques provenant du système ferroviaire qui pourraient perturber les éléments extérieurs ou mettre en danger des personnes. En même temps, il est important que le système ferroviaire soit suffisamment immunisé contre des éventuelles perturbations externes, de façon à assurer le bon fonctionnement des installations ferroviaires et la sécurité des passagers et du personnel. Parmi les types de perturbations électromagnétiques existant, les Élévations de Potentiel de Sol (EPS) méritent une attention particulière. Le sol naturel est un milieu conducteur de très grande taille. Il est souvent utilisé pour drainer des excès de charges électriques d'un système quelconque, ainsi comme un milieu d'échange de courant électrique entre des systèmes qui sont à des potentiels électriques différents.Des protections sont alors systématiquement installées de sorte à limiter l'impact des EPS sur les éléments voisins. Ces protections ont souvent un coût d'installation et de maintenance très élevé pour le système ferroviaire; elles doivent être optimisées au cas par cas, de façon à garantir la sécurité des personnes et le bon fonctionnement des équipements, et en même temps rester financièrement accessibles. La majorité des méthodes existantes aujourd'hui pour le calcul des EPS ne permet pas la prise en compte de tous ces facteurs. Elles se limitent à intégrer le sol de façon passive, et en général en le modélisant de nature homogène ou quasi-homogène.Dans cette optique, nous proposons une nouvelle méthode pour le calcul des EPS, plus complète et par conséquent plus précise que celles existantes aujourd'hui. Cette méthode permet d'intégrer dans la modélisation la présence d'un sol hétérogène multicouche, construit à partir de mesures réalisées sur le terrain et spécifiques à chaque contexte de sol. La présence de conducteurs enterrés dans la région de l'EPS est tenue en compte dans un modèle multiconducteur qui permet intégrer en même temps tous les conducteurs de la zone. La méthode développée est particulièrement dédiée au calcul des EPS en contexte ferroviaire. Cette approche s'appuie sur une méthode hybride qui prend en compte les phénomènes d'induction et de conduction dans un système multiconducteurs et qui intègre la présence d'un sol multicouche. Ce type d'approche s'est déjà avéré pertinent dans le cadre de l'étude des interactions entre des perturbations électromagnétiques générées par une ligne à haute tension et des canalisations enterrées. Notre méthode est dans un premier temps validée dans des configurations académiques puis mise en œuvre dans l'étude de sites ferroviaires où des comparaisons avec des mesures sont présentées. / The railway electrical system is composed of multiple metallic conductors of different kinds and having, for most of them, the particularity of being very long in comparison with its perpendicular dimensions. This set of conductors is integrated in a complex environment composed of many other elements, such as power transmission lines, pipelines, telecommunication lines, but also houses, people, rivers, farms, etc. To assure its electromagnetic compatibility with its environment, it is important to restrict the level of hazardous electromagnetic emissions coming from railway system that could disturb neighboring systems or risk people’s safety. At the same time, it is important that railway system is immunized against electromagnetic emissions coming from its neighbor, in order to assure the correct functioning of railway installations and the safety of passengers and staff. Among the different kinds of electromagnetic perturbations, the Ground Potential Rising (GPR) deserves a special treatment. The natural ground is a conductor environment of great size. It is often used to drain excessive electric charges from systems, and also as an environment allowing electrical charges exchange between systems in different electrical potential.Protections are then systematically deployed in order to limit the impact of GPR on neighboring elements. In the case of railway system, these protections have a very high cost of installation and maintenance. They must be optimized on a case to case basis, in order to assure security of people and equipments but also to be affordable.The majority of methods to calculate GPR don’t allow the integration of the complex electric environment of the ground. Most of them integrate the ground in a passive way, most of the time being a homogeneous ground.In this regard, we propose a new method of GPR calculation, more complete so more precise than what is used today. This method allows the integration into the model of a heterogeneous multilayer ground, built after measurements that have to be done on a case to case basis. The presence of buried conductors in the area of the GPR is also taken into account in a multiconductor model, which integrates at the same time all the conductors inside the zone.The method that we developed gets its full meaning when applied to GPR in railway context, thanks to the presence of many buried cables in the same environment. This approach is based on a hybrid method that takes into account induction and conduction phenomena in a multiconductor system and integrating a multilayer ground. This kind of approach has already been used in the calculation of electromagnetic induction between a power line and a pipeline. We first validated our method by calculating GPR in simple configurations. We then applied our calculations in order to calculate GPR in a railway context, which was then compared with measurements.
136

Simulation and optimization models for scheduling and balancing the public bicycle-sharing systems / Modéles de simulation et d'optimisation pour l'ordonnancement et l'équilibrage des systèmes de vélos en libre-service

Kadri, Ahmed Abdelmoumene 11 December 2015 (has links)
Les enjeux du développement durable, le réchauffement climatique, la pollution dans les grandes villes, la congestion et les nuisances sonores, l'augmentation des prix de carburants, sont parmi des nombreux facteurs qui incitent les pays développés à l'innovation dans les transports publics. Dans ce contexte, l'introduction des systèmes de vélos en libre-service, au cours de ces dernières années, est une des solutions adoptées par de nombreuses grandes villes. Malgré leur succès fulgurant dans le monde entier, il existe peu d'études fondamentales sur ce type transport urbain. Pourtant, leur exploitation et leur management par des opérateurs soulèvent de nombreuses questions notamment d'ordre opérationnel. Dans ce contexte, cette thèse s'adresse aux problèmes d'ordonnancement et de rééquilibrage des stations de vélos en libre-service. Ce sont des problèmes cruciaux pour la qualité de service et la viabilité économique de tels systèmes. Le rééquilibrage consiste à redistribuer le nombre de vélos entre les différentes stations afin de satisfaire au mieux les demandes des usagers. Cette régulation se fait souvent par le biais de véhicules spécifiques qui font des tournées autour des différentes stations. Ainsi, deux problèmes d'optimisation difficiles se posent : la recherche de la meilleure tournée du véhicule de régulation (ordonnancement de la tournée) et la détermination des nombres de véhicules à utiliser (rééquilibrage des stations). Dans cette optique, les travaux de cette thèse constituent une contribution à la modélisation et à l'optimisation de performances des systèmes de vélos en libre-service en vue de leur rééquilibrage et leur ordonnancement. Plusieurs méthodes d'optimisation et ont été développées et testées. De telles méthodes incorporent différentes approches de simulation ou d'optimisation comme les réseaux de Petri, les algorithmes génétiques, les algorithmes gloutons, les algorithmes de recherche par voisinage, la méthode arborescente de branch-and-bound, l'élaboration des bornes supérieures et inférieures, etc. Différentes facettes du problème ont été étudiées : le cas statique, le cas dynamique, l'ordonnancement et le rééquilibrage avec un seul (ou multiple) véhicule(s). Afin de montrer la pertinence de nos approches, la thèse comporte également plusieurs applications réelles et expérimentations / In our days, developed countries have to face many public transport problems, including traffic congestion, air pollution, global oil prices and global warming. In this context, Public Bike sharing systems are one of the solutions that have been recently implemented in many big cities around the world. Despite their apparent success, the exploitation and management of such transportation systems imply crucial operational challenges that confronting the operators while few scientific works are available to support such complex dynamical systems. In this context, this thesis addresses the scheduling and balancing in public bicycle-sharing systems. These problems are the most crucial questions for their operational efficiency and economic viability. Bike sharing systems are balanced by distributing bicycles from one station to another. This procedure is generally ensured by using specific redistribution vehicles. Therefore, two hard optimization problems can be considered: finding a best tour for the redistribution vehicles (scheduling) and the determination of the numbers of bicycles to be assigned and of the vehicles to be used (balancing of the stations). In this context, this thesis constitutes a contribution to modelling and optimizing the bicycle sharing systems' performances in order to ensure a coherent scheduling and balancing strategies. Several optimization methods have been proposed and tested. Such methods incorporate different approaches of simulation or optimization like the Petri nets, the genetic algorithms, the greedy search algorithms, the local search algorithms, the arborescent branch-and-bound algorithms, the elaboration of upper and lower bounds, ... Different variants of the problem have been studied: the static mode, the dynamic mode, the scheduling and the balancing by using a single or multiple vehicle(s). In order to demonstrate the coherence and the suitability of our approaches, the thesis contains several real applications and experimentations
137

Apprentissage Supervisé Relationnel par Algorithmes d'Évolution

Augier, Sébastien 19 December 2000 (has links) (PDF)
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
138

Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués

Nguyen, Hai-Nam 16 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
139

Sur l’ordonnancement d’ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires / On flexible job-shop and pharmaceutical industries flow-shop schedulings by particle swarm and genetic algorithm optimization

Boukef, Hela 03 July 2009 (has links)
Pour la résolution de problèmes d’ordonnancement d’ateliers de type flow-shop en industries pharmaceutiques et d’ateliers de type job-shop flexible, deux méthodes d’optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d’un nouveau codage proposé et une méthode d’optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d’ateliers de complexités distinctes pour illustrer leur mise en œuvre. L’étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l’optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l’approche de la solution optimale / For flexible job-shop and pharmaceutical flow-shop scheduling problems resolution, two optimization methods are considered: a genetic algorithm one using a new proposed coding and a particle swarm optimization one modified in order to be used in discrete cases.The criteria retained for the considered packaging lines in pharmaceutical industries multi-objective problems are production cost minimization and total stopping cost minimization. For the flexible job-shop scheduling problems treated, the criterion taken into account is Makespan minimization.These two methods have been applied to various work-shops with distinct complexities to show their efficiency.After comparison of these methods, the obtained results allowed us to notice the efficiency of the based particle swarm optimization method in terms of convergence and reaching optimal solution
140

Écoconception de procédés : approche systémique couplant modélisation globale, analyse du cycle de vie et optimisation multiobjectif / Eco-design of chemical processes : an integrated approach coupling process modeling, life cycle assessment and multi-objective optimization

Morales Mendoza, Luis Fernando 04 December 2013 (has links)
L’objectif de ce travail est de développer un cadre méthodologique et générique d’éco-conception de procédés chimiques couplant des outils de modélisation et de simulation traditionnels de procédés (HYSYS, COCO, ProSimPlus et Ariane), d’Analyse du Cycle de Vie (ACV), d’optimisation multiobjectif basée sur des Algorithmes Génétiques et enfin des outils d’aide à la décision multicritère (ELECTRE, PROMETHEE, M-TOPSIS). Il s’agit de généraliser, d’automatiser et d’optimiser l’évaluation des impacts environnementaux au stade préliminaire de la conception d’un procédé chimique. L’approche comprend trois étapes principales. Les deux premières correspondent d’une part aux phases d’analyse de l’inventaire par calcul des bilans de matière et d’énergie et d’autre part à l’évaluation environnementale par ACV. Le problème du manque d’information ou de l’imprécision dans les bases de données classiques en ACV pour la production d’énergie notamment sous forme de vapeur largement utilisée dans les procédés a reçu une attention particulière. Une solution proposée consiste à utiliser un simulateur de procédés de production d’utilités (Ariane, ProSim SA) pour contribuer à alimenter la base de données environnementale en tenant compte de variations sur les conditions opératoires ou sur les technologies utilisées. Des sous-modules « énergie » sont ainsi proposés pour calculer les émissions relatives aux impacts liés à l’utilisation de l’énergie dans les procédés. La troisième étape réalise l’interaction entre les deux premières phases et l’optimisation multi-objectif qui met en jeu des critères économiques et environnementaux. Elle conduit à des solutions de compromis le long du front de Pareto à partir desquelles les meilleures sont choisies à l’aide de méthodes d’aide à la décision. L’approche est appliquée à des procédés de production continus : production de benzène par hydrodéalkylation du toluène HDA et production de biodiesel à partir d’huiles végétales. Une stratégie à plusieurs niveaux est mise en oeuvre pour l'analyse de l'optimisation multi-objectif. Elle est utilisée dans les deux cas d'étude afin d'analyser les comportements antagonistes des critères. / The objective of this work is to propose an integrated and generic framework for eco-design coupling traditional modelling and flowsheeting simulation tools (HYSYS, COCO, ProSimPlus and Ariane), Life Cycle Assessment, multi-objective optimization based on Genetic Algorithms and multiple criteria decision-making methods MCDM (Multiple Choice Decision Making, such as ELECTRE, PROMETHEE, M-TOPSIS) that generalizes, automates and optimizes the evaluation of the environmental criteria at earlier design stage. The approach consists of three main stages. The first two steps correspond respectively to process inventory analysis based on mass and energy balances and impact assessment phases of LCA methodology. Specific attention is paid to the main issues that can be encountered with database and impact assessment i.e. incomplete or missing information, or approximate information that does not match exactly the real situation that may introduce a bias in the environmental impact estimation. A process simulation tool dedicated to production utilities, Ariane, ProSim SA is used to fill environmental database gap, by the design of specific energy sub modules, so that the life cycle energy related emissions for any given process can be computed. The third stage of the methodology is based on the interaction of the previous steps with process simulation for environmental impact assessment and cost estimation through a computational framework. The use of multi-objective optimization methods generally leads to a set of efficient solutions, the so-called Pareto front. The next step consists in identifying the best ones through MCDM methods. The approach is applied to two processes operating in continuous mode. The capabilities of the methodology are highlighted through these case studies (benzene production by HDA process and biodiesel production from vegetable oils). A multi-level assessment for multi-objective optimization is implemented for both cases, the explored pathways depending on the analysis and antagonist behaviour of the criteria.

Page generated in 0.0525 seconds