• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 110
  • 22
  • 5
  • 1
  • 1
  • Tagged with
  • 140
  • 140
  • 62
  • 52
  • 48
  • 40
  • 40
  • 29
  • 28
  • 25
  • 21
  • 18
  • 18
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Modeling and optimization of tubular polymerization reactors / Modélisation et optimisation des réacteurs tubulaires de polymérisation

Banu, Ionut 17 July 2009 (has links)
Le but de cette thèse est l’investigation des particularités des problèmes d’optimisation et modélisation des réacteurs tubulaires de polymérisation. La partie originale du travail est divisé en deux sections : la première traitant de l'étude théorique de la modélisation et de l’optimisation des réacteurs tubulaires de polymérisation du méthacrylate de méthyle en solution, et la deuxième, une étude expérimentale et théorique de l'extrusion réactive de L-lactide. Dans la première partie, afin de sélectionner un modèle cinétique représentatif, parmi les modèles publiés pour le processus de polymérisation de MMA, des simulations ont été effectuées en conditions identiques de fonctionnement. Deux algorithmes numériques, l’un basé sur le Principe du Minimum de Pontriaguine et l’autre de type Génétique, ont été comparés pour un problème d'optimisation de complexité moyenne. Les résultats ont montré une robustesse supérieure de l’Algorithme Génétique pour cette catégorie de problèmes. La deuxième partie de la thèse est consacrée à la modélisation et à l’optimisation de l'extrusion réactive du Llactide. Nous avons proposé un modèle cinétique et ses paramètres ont été estimés en utilisant des procédures numériques basées sur les données cinétiques expérimentales. Les expériences d'extrusion réactives ont été exécutées dans les conditions de fonctionnement représentatives. L'écoulement de L-lactide/polylactide dans l'extrudeuse a été caractérisé par la simulation en utilisant un logiciel commercial, LUDOVIC®. Les caractéristiques de la distribution des temps de séjour simulées sont utilisées pour modéliser le processus d'extrusion réactive en utilisant deux approches, un modèle à dispersion axiale et un modèle à base de compartiments, dont les caractéristiques sont déduites des simulations effectuées avec LUDOVIC®. Les résultats de la modélisation du processus sont en bon accord avec des données mesurées en mêmes conditions opératoires. / The aim of this thesis is the investigation of modeling and optimization particularities of tubular polymerization reactors. The original work is divided in two sections, the first treating a modeling and optimization study of tubular reactors for methyl methacrylate polymerization in solution, and the second, an experimental and theoretical study of L-lactide reactive extrusion. In the first section, reactor simulations in similar operating conditions were performed in order to select a representative kinetic model among the published kinetic models for MMA solution polymerization. Two widely used numerical algorithms, one based on Pontryagin’s Minimum Principle and the other a Genetic Algorithm, were compared for an average-complexity optimization problem. The results showed a superior robustness of the Genetic Algorithm for this category of problems. The second part of the thesis deals with the modeling and optimization of L-lactide reactive extrusion. A kinetic model is proposed and its parameters estimated using nonlinear estimation numerical procedures based on experimentally measured data. Reactive extrusion experiments were performed in representative operating conditions. The Llactide/ polylactide flow in the extruder was characterized by simulation using the commercial software LUDOVIC®. The simulated residence time distributions characteristics are used to model the reactive extrusion process of two approaches, an axial dispersion model and a compartment model, based on compartments whose characteristics are deduced from the simulations using LUDOVIC®. The modeling results are in good agreement with the measured data in the same operating conditions.
132

Ordonnancement des opérations dans une unité d'extrusion

Zaatour, Dhiaeddine 24 April 2018 (has links)
Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique / The thesis deals with the optimization of the production on a number of machines subject to limited availability of the resources in an extrusion facility. Because of its importance to meet deadlines, the objective is to minimize the sum of weighted tardiness. This work presents a linear formulation of the problem and a number of heuristic solution methods. The proposed heuristic solution methods can be divided into two main groups: construction methods and neighborhood search methods. Also solution construction methods are divided in two sub-groups: parallel construction heuristics and serial construction heuristics. Adaptations of the simulated annealing algorithm (SA), the genetic algorithm (GA), the Tabu search (TS) method and the Greedy randomized adaptive search procedure (GRASP) are developed. Five neighborhood structures are used within the four tested neighborhood search algorithms. In our problem, setup times are sequence dependent. Also, extruders and dies are the bottleneck piece of equipment in this industrial setting. Several problem instances were generated for the evaluation of heuristic scheduling algorithms. The experimental study shows that the construction heuristics are not sufficient to ensure good results, however the proposed neighborhood search methods perform very well. Also, the structure of neighborhoods plays an important role to guarantee better results. Keywords: scheduling, optimization, extrusion, mathematical formulation, heuristic, simulated-annealing, tabu-search, GRASP, genetic algorithm
133

Contribution au calcul des élévations de potentiel de sol en contexte ferroviaire / Contribution to calculation of ground potentiel rising in railway context

Papaiz Garbini, Gabriel 25 June 2015 (has links)
Le système électrique ferroviaire est composé d'un ensemble de conducteurs métalliques de différentes natures et ayant, pour la plupart d'entre eux, la particularité d'avoir une longueur très importante par rapport aux dimensions transversales. Cet ensemble de conducteurs est inséré dans un environnement complexe composé de plusieurs autres éléments, tel que le réseau de transport d'énergie à haute tension, le réseau de gaz, le réseau des télécommunications, ainsi que des habitations, des passagers, des rivières, des fermes, etc. Pour assurer sa bonne compatibilité électromagnétique avec l'environnement, il est important de limiter les niveaux d'émissions électromagnétiques provenant du système ferroviaire qui pourraient perturber les éléments extérieurs ou mettre en danger des personnes. En même temps, il est important que le système ferroviaire soit suffisamment immunisé contre des éventuelles perturbations externes, de façon à assurer le bon fonctionnement des installations ferroviaires et la sécurité des passagers et du personnel. Parmi les types de perturbations électromagnétiques existant, les Élévations de Potentiel de Sol (EPS) méritent une attention particulière. Le sol naturel est un milieu conducteur de très grande taille. Il est souvent utilisé pour drainer des excès de charges électriques d'un système quelconque, ainsi comme un milieu d'échange de courant électrique entre des systèmes qui sont à des potentiels électriques différents.Des protections sont alors systématiquement installées de sorte à limiter l'impact des EPS sur les éléments voisins. Ces protections ont souvent un coût d'installation et de maintenance très élevé pour le système ferroviaire; elles doivent être optimisées au cas par cas, de façon à garantir la sécurité des personnes et le bon fonctionnement des équipements, et en même temps rester financièrement accessibles. La majorité des méthodes existantes aujourd'hui pour le calcul des EPS ne permet pas la prise en compte de tous ces facteurs. Elles se limitent à intégrer le sol de façon passive, et en général en le modélisant de nature homogène ou quasi-homogène.Dans cette optique, nous proposons une nouvelle méthode pour le calcul des EPS, plus complète et par conséquent plus précise que celles existantes aujourd'hui. Cette méthode permet d'intégrer dans la modélisation la présence d'un sol hétérogène multicouche, construit à partir de mesures réalisées sur le terrain et spécifiques à chaque contexte de sol. La présence de conducteurs enterrés dans la région de l'EPS est tenue en compte dans un modèle multiconducteur qui permet intégrer en même temps tous les conducteurs de la zone. La méthode développée est particulièrement dédiée au calcul des EPS en contexte ferroviaire. Cette approche s'appuie sur une méthode hybride qui prend en compte les phénomènes d'induction et de conduction dans un système multiconducteurs et qui intègre la présence d'un sol multicouche. Ce type d'approche s'est déjà avéré pertinent dans le cadre de l'étude des interactions entre des perturbations électromagnétiques générées par une ligne à haute tension et des canalisations enterrées. Notre méthode est dans un premier temps validée dans des configurations académiques puis mise en œuvre dans l'étude de sites ferroviaires où des comparaisons avec des mesures sont présentées. / The railway electrical system is composed of multiple metallic conductors of different kinds and having, for most of them, the particularity of being very long in comparison with its perpendicular dimensions. This set of conductors is integrated in a complex environment composed of many other elements, such as power transmission lines, pipelines, telecommunication lines, but also houses, people, rivers, farms, etc. To assure its electromagnetic compatibility with its environment, it is important to restrict the level of hazardous electromagnetic emissions coming from railway system that could disturb neighboring systems or risk people’s safety. At the same time, it is important that railway system is immunized against electromagnetic emissions coming from its neighbor, in order to assure the correct functioning of railway installations and the safety of passengers and staff. Among the different kinds of electromagnetic perturbations, the Ground Potential Rising (GPR) deserves a special treatment. The natural ground is a conductor environment of great size. It is often used to drain excessive electric charges from systems, and also as an environment allowing electrical charges exchange between systems in different electrical potential.Protections are then systematically deployed in order to limit the impact of GPR on neighboring elements. In the case of railway system, these protections have a very high cost of installation and maintenance. They must be optimized on a case to case basis, in order to assure security of people and equipments but also to be affordable.The majority of methods to calculate GPR don’t allow the integration of the complex electric environment of the ground. Most of them integrate the ground in a passive way, most of the time being a homogeneous ground.In this regard, we propose a new method of GPR calculation, more complete so more precise than what is used today. This method allows the integration into the model of a heterogeneous multilayer ground, built after measurements that have to be done on a case to case basis. The presence of buried conductors in the area of the GPR is also taken into account in a multiconductor model, which integrates at the same time all the conductors inside the zone.The method that we developed gets its full meaning when applied to GPR in railway context, thanks to the presence of many buried cables in the same environment. This approach is based on a hybrid method that takes into account induction and conduction phenomena in a multiconductor system and integrating a multilayer ground. This kind of approach has already been used in the calculation of electromagnetic induction between a power line and a pipeline. We first validated our method by calculating GPR in simple configurations. We then applied our calculations in order to calculate GPR in a railway context, which was then compared with measurements.
134

Simulation and optimization models for scheduling and balancing the public bicycle-sharing systems / Modéles de simulation et d'optimisation pour l'ordonnancement et l'équilibrage des systèmes de vélos en libre-service

Kadri, Ahmed Abdelmoumene 11 December 2015 (has links)
Les enjeux du développement durable, le réchauffement climatique, la pollution dans les grandes villes, la congestion et les nuisances sonores, l'augmentation des prix de carburants, sont parmi des nombreux facteurs qui incitent les pays développés à l'innovation dans les transports publics. Dans ce contexte, l'introduction des systèmes de vélos en libre-service, au cours de ces dernières années, est une des solutions adoptées par de nombreuses grandes villes. Malgré leur succès fulgurant dans le monde entier, il existe peu d'études fondamentales sur ce type transport urbain. Pourtant, leur exploitation et leur management par des opérateurs soulèvent de nombreuses questions notamment d'ordre opérationnel. Dans ce contexte, cette thèse s'adresse aux problèmes d'ordonnancement et de rééquilibrage des stations de vélos en libre-service. Ce sont des problèmes cruciaux pour la qualité de service et la viabilité économique de tels systèmes. Le rééquilibrage consiste à redistribuer le nombre de vélos entre les différentes stations afin de satisfaire au mieux les demandes des usagers. Cette régulation se fait souvent par le biais de véhicules spécifiques qui font des tournées autour des différentes stations. Ainsi, deux problèmes d'optimisation difficiles se posent : la recherche de la meilleure tournée du véhicule de régulation (ordonnancement de la tournée) et la détermination des nombres de véhicules à utiliser (rééquilibrage des stations). Dans cette optique, les travaux de cette thèse constituent une contribution à la modélisation et à l'optimisation de performances des systèmes de vélos en libre-service en vue de leur rééquilibrage et leur ordonnancement. Plusieurs méthodes d'optimisation et ont été développées et testées. De telles méthodes incorporent différentes approches de simulation ou d'optimisation comme les réseaux de Petri, les algorithmes génétiques, les algorithmes gloutons, les algorithmes de recherche par voisinage, la méthode arborescente de branch-and-bound, l'élaboration des bornes supérieures et inférieures, etc. Différentes facettes du problème ont été étudiées : le cas statique, le cas dynamique, l'ordonnancement et le rééquilibrage avec un seul (ou multiple) véhicule(s). Afin de montrer la pertinence de nos approches, la thèse comporte également plusieurs applications réelles et expérimentations / In our days, developed countries have to face many public transport problems, including traffic congestion, air pollution, global oil prices and global warming. In this context, Public Bike sharing systems are one of the solutions that have been recently implemented in many big cities around the world. Despite their apparent success, the exploitation and management of such transportation systems imply crucial operational challenges that confronting the operators while few scientific works are available to support such complex dynamical systems. In this context, this thesis addresses the scheduling and balancing in public bicycle-sharing systems. These problems are the most crucial questions for their operational efficiency and economic viability. Bike sharing systems are balanced by distributing bicycles from one station to another. This procedure is generally ensured by using specific redistribution vehicles. Therefore, two hard optimization problems can be considered: finding a best tour for the redistribution vehicles (scheduling) and the determination of the numbers of bicycles to be assigned and of the vehicles to be used (balancing of the stations). In this context, this thesis constitutes a contribution to modelling and optimizing the bicycle sharing systems' performances in order to ensure a coherent scheduling and balancing strategies. Several optimization methods have been proposed and tested. Such methods incorporate different approaches of simulation or optimization like the Petri nets, the genetic algorithms, the greedy search algorithms, the local search algorithms, the arborescent branch-and-bound algorithms, the elaboration of upper and lower bounds, ... Different variants of the problem have been studied: the static mode, the dynamic mode, the scheduling and the balancing by using a single or multiple vehicle(s). In order to demonstrate the coherence and the suitability of our approaches, the thesis contains several real applications and experimentations
135

Apprentissage Supervisé Relationnel par Algorithmes d'Évolution

Augier, Sébastien 19 December 2000 (has links) (PDF)
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
136

Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués

Nguyen, Hai-Nam 16 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
137

Sur l’ordonnancement d’ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires / On flexible job-shop and pharmaceutical industries flow-shop schedulings by particle swarm and genetic algorithm optimization

Boukef, Hela 03 July 2009 (has links)
Pour la résolution de problèmes d’ordonnancement d’ateliers de type flow-shop en industries pharmaceutiques et d’ateliers de type job-shop flexible, deux méthodes d’optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d’un nouveau codage proposé et une méthode d’optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d’ateliers de complexités distinctes pour illustrer leur mise en œuvre. L’étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l’optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l’approche de la solution optimale / For flexible job-shop and pharmaceutical flow-shop scheduling problems resolution, two optimization methods are considered: a genetic algorithm one using a new proposed coding and a particle swarm optimization one modified in order to be used in discrete cases.The criteria retained for the considered packaging lines in pharmaceutical industries multi-objective problems are production cost minimization and total stopping cost minimization. For the flexible job-shop scheduling problems treated, the criterion taken into account is Makespan minimization.These two methods have been applied to various work-shops with distinct complexities to show their efficiency.After comparison of these methods, the obtained results allowed us to notice the efficiency of the based particle swarm optimization method in terms of convergence and reaching optimal solution
138

Écoconception de procédés : approche systémique couplant modélisation globale, analyse du cycle de vie et optimisation multiobjectif / Eco-design of chemical processes : an integrated approach coupling process modeling, life cycle assessment and multi-objective optimization

Morales Mendoza, Luis Fernando 04 December 2013 (has links)
L’objectif de ce travail est de développer un cadre méthodologique et générique d’éco-conception de procédés chimiques couplant des outils de modélisation et de simulation traditionnels de procédés (HYSYS, COCO, ProSimPlus et Ariane), d’Analyse du Cycle de Vie (ACV), d’optimisation multiobjectif basée sur des Algorithmes Génétiques et enfin des outils d’aide à la décision multicritère (ELECTRE, PROMETHEE, M-TOPSIS). Il s’agit de généraliser, d’automatiser et d’optimiser l’évaluation des impacts environnementaux au stade préliminaire de la conception d’un procédé chimique. L’approche comprend trois étapes principales. Les deux premières correspondent d’une part aux phases d’analyse de l’inventaire par calcul des bilans de matière et d’énergie et d’autre part à l’évaluation environnementale par ACV. Le problème du manque d’information ou de l’imprécision dans les bases de données classiques en ACV pour la production d’énergie notamment sous forme de vapeur largement utilisée dans les procédés a reçu une attention particulière. Une solution proposée consiste à utiliser un simulateur de procédés de production d’utilités (Ariane, ProSim SA) pour contribuer à alimenter la base de données environnementale en tenant compte de variations sur les conditions opératoires ou sur les technologies utilisées. Des sous-modules « énergie » sont ainsi proposés pour calculer les émissions relatives aux impacts liés à l’utilisation de l’énergie dans les procédés. La troisième étape réalise l’interaction entre les deux premières phases et l’optimisation multi-objectif qui met en jeu des critères économiques et environnementaux. Elle conduit à des solutions de compromis le long du front de Pareto à partir desquelles les meilleures sont choisies à l’aide de méthodes d’aide à la décision. L’approche est appliquée à des procédés de production continus : production de benzène par hydrodéalkylation du toluène HDA et production de biodiesel à partir d’huiles végétales. Une stratégie à plusieurs niveaux est mise en oeuvre pour l'analyse de l'optimisation multi-objectif. Elle est utilisée dans les deux cas d'étude afin d'analyser les comportements antagonistes des critères. / The objective of this work is to propose an integrated and generic framework for eco-design coupling traditional modelling and flowsheeting simulation tools (HYSYS, COCO, ProSimPlus and Ariane), Life Cycle Assessment, multi-objective optimization based on Genetic Algorithms and multiple criteria decision-making methods MCDM (Multiple Choice Decision Making, such as ELECTRE, PROMETHEE, M-TOPSIS) that generalizes, automates and optimizes the evaluation of the environmental criteria at earlier design stage. The approach consists of three main stages. The first two steps correspond respectively to process inventory analysis based on mass and energy balances and impact assessment phases of LCA methodology. Specific attention is paid to the main issues that can be encountered with database and impact assessment i.e. incomplete or missing information, or approximate information that does not match exactly the real situation that may introduce a bias in the environmental impact estimation. A process simulation tool dedicated to production utilities, Ariane, ProSim SA is used to fill environmental database gap, by the design of specific energy sub modules, so that the life cycle energy related emissions for any given process can be computed. The third stage of the methodology is based on the interaction of the previous steps with process simulation for environmental impact assessment and cost estimation through a computational framework. The use of multi-objective optimization methods generally leads to a set of efficient solutions, the so-called Pareto front. The next step consists in identifying the best ones through MCDM methods. The approach is applied to two processes operating in continuous mode. The capabilities of the methodology are highlighted through these case studies (benzene production by HDA process and biodiesel production from vegetable oils). A multi-level assessment for multi-objective optimization is implemented for both cases, the explored pathways depending on the analysis and antagonist behaviour of the criteria.
139

Contribution à l'identification de systèmes non-linéaires en milieu bruité pour la modélisation de structures mécaniques soumises à des excitations vibratoires

Sigrist, Zoé 04 December 2012 (has links)
Cette thèse porte sur la caractérisation de structures mécaniques, au travers de leurs paramètres structuraux, à partir d'observations perturbées par des bruits de mesure, supposés additifs blancs gaussiens et centrés. Pour cela, nous proposons d'utiliser des modèles à temps discret à parties linéaire et non-linéaire séparables. La première permet de retrouver les paramètres recherchés tandis que la seconde renseigne sur la non-linéarité présente. Dans le cadre d'une modélisation non-récursive par des séries de Volterra, nous présentons une approche à erreurs-dans-les-variables lorsque les variances des bruits ne sont pas connues ainsi qu'un algorithme adaptatif du type LMS nécessitant la connaissance de la variance du bruit d'entrée. Dans le cadre d'une modélisation par un modèle récursif polynomial, nous proposons deux méthodes à partir d'algorithmes évolutionnaires. La première inclut un protocole d'arrêt tenant compte de la variance du bruit de sortie. Dans la seconde, les fonctions fitness sont fondées sur des fonctions de corrélation dans lesquelles l'influence du bruit est supprimée ou compensée. / This PhD deals with the caracterisation of mechanical structures, by its structural parameters, when only noisy observations disturbed by additive measurement noises, assumed to be zero-mean white and Gaussian, are available. For this purpose, we suggest using discrete-time models with distinct linear and nonlinear parts. The first one allows the structural parameters to be retrieved whereas the second one gives information on the nonlinearity. When dealing with non-recursive Volterra series, we propose an errors-in-variables (EIV) method to jointly estimate the noise variances and the Volterra kernels. We also suggest a modified unbiased LMS algorithm to estimate the model parameters provided that the input-noise variance is known. When dealing with recursive polynomial model, we propose two methods using evolutionary algorithms. The first includes a stop protocol that takes into account the output-noise variance. In the second one, the fitness functions are based on correlation criteria in which the noise influence is removed or compensated.
140

Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique / Contribution to the analysis of dynamic entries old for using the expertise palaeographic

Daher, Hani 22 November 2012 (has links)
Mes travaux de thèse s’inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d’étude et dedéchiffrage des écritures.L’objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l’Institut de Recherche en Histoire des Textes (IRHT – Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l’évolutiondes formes de l’écriture par la mise en place de méthodes efficaces d’accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j’ai choisi d’étudier la dynamique del’élément le plus basique de l’écriture appelé le ductus2 et qui d’après les paléographes apportebeaucoup d’informations sur le style d’écriture et l’époque d’élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l’information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d’une méthodologie complète de suivi de traits à partir del’extraction d’un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l’application des règlesfondamentales d’exécution des traits d’écriture, enseignées aux copistes du Moyen Age. Il s’agitd’information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l’écriture d’unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l’utilisation d’un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d’obtenir la meilleure représentation d’un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L’ensemble de ces contributions a été testé à partir d’une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d’Oxford et manuscrits de l’IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d’identification de scripteurs d’ICDAR 2011. L’exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l’identification d’écritures etétudier son pouvoir de généralisation à d’autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits. / My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by “Institut de Recherche en Histoire de Textes” (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.

Page generated in 0.2248 seconds