• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 40
  • 3
  • Tagged with
  • 111
  • 111
  • 96
  • 57
  • 55
  • 24
  • 23
  • 18
  • 18
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Multi-objective optimisation of a hydrogen supply chain / Optimisation multi-objectif de la conception de la chaîne logistique hydrogène

De León Almaraz, Sofia 14 February 2014 (has links)
L'hydrogène produit à partir de sources renouvelables et utilisé dans les piles à combustible pour diverses applications, tant mobiles que stationnaires, constitue un vecteur énergétique très prometteur, dans un contexte de développement durable. Les « feuilles de route » stratégiques, élaborées au niveau européen, national ou régional, consacrées aux potentialités énergétiques de l’hydrogène, ainsi que l’analyse des publications scientifiques ont cependant identifié le manque d'infrastructures, comme l'un des principaux obstacles au développement de l'économie « hydrogène ». Cette étude s’inscrit dans le cadre du développement d’une méthodologie de conception d'une chaîne logistique « hydrogène » (production, stockage et transport). La formulation, basée sur une procédure de programmation mathématique linéaire en variables mixtes, implique une approche multicritère concernant la minimisation du prix de revient de l’hydrogène, l’impact sur le réchauffement climatique et un indice de risque, en prenant en compte une échelle tant régionale que nationale. L’optimisation multi-objectif repose sur une stratégie Ɛ-contrainte développée à partir d’une méthode lexicographique menant à la construction de fronts de Pareto offrant un grand nombre de solutions. La procédure d’aide à la décision M-TOPSIS est ensuite utilisée pour choisir le meilleur compromis. Le modèle est appliqué à une étude de cas en Grande-Bretagne, issue de la littérature spécialisée, qui sert de référence pour comparer les approches mono- et multi-objectif. Ensuite, la modélisation et l'optimisation de la chaîne d'approvisionnement d'hydrogène pour la région Midi-Pyrénées ont été étudiées dans le cadre du projet «H2 vert carburant». Un problème mono/multi-période est traité selon des scénarios d'optimisation basés sur la stratégie Ɛ-contrainte développée à partir d’une méthode lexicographique. Le système d’information ArcGIS® est ensuite utilisé pour valider les solutions obtenues par optimisation multi-objectif. Cette technologie permet d'associer une période de temps aux configurations de la chaîne logistique hydrogène et d’analyser plus finement les résultats de la conception du réseau H2. L’extension au cas de la France répond à un double objectif : d'une part, tester la robustesse de la méthode à une échelle géographique différente et, d’autre part, examiner si les résultats obtenus au niveau régional sont cohérents avec ceux de l'échelle nationale. Dans cette étude de cas, l'outil spatial ArcGIS® est utilisé avant optimisation pour identifier les contraintes géographiques. Un scénario prenant en compte un cycle économique est également traité. Les optimisations mono et multi-objectif présentent des différences relatives au mode de déploiement de filière, centralisé ou décentralisé, et au type de technologie des unités production, ainsi qu’à leur taille. Les résultats confirment l'importance d'étudier différentes échelles spatiales. / Hydrogen produced from renewable sources and used in fuel cells both for mobile and stationary applications constitutes a very promising energy carrier in a context of sustainable development. Yet the strategic roadmaps that were currently published about the energy potentialities of hydrogen at European, national and regional level as well as the analysis of the scientific publications in this field have identified the lack of infrastructures as a major barrier to the development of a « hydrogen » economy. This study focuses on the development of a methodological framework for the design of a hydrogen supply chain (HSC) (production, storage and transportation). The formulation based on mixed integer linear programming involves a multi-criteria approach where three objectives have to be optimised simultaneously, i.e., cost, global warming potential and safety risk, either at national or regional scale. This problem is solved by implementing lexicographic and Ɛ-constraint methods. The solution consists of a Pareto front, corresponding to different design strategies in the associated variable space. Multiple choice decision making based on M-TOPSIS (Modified Technique for Order Preference by Similarity to Ideal Solution) analysis is then selected to find the best compromise. The mathematical model is applied to a case study reported in the literature survey and dedicated to Great Britain for validation purpose, comparing the results between mono- and multi-objective approaches. In the regional case, the modelling and optimisation of the HSC in the Midi-Pyrénées region was carried out in the framework of the project “H2 as a green fuel”. A mono/multi period problem is treated with different optimisation scenarios using Ɛ-constraint and lexicographic methods for the optimisation stage. The geographic information system (GIS) is introduced and allows organising, analysing and mapping spatial data. The optimisation of the HSC is then applied to the national case of France. The objective is twofold: on the one hand, to examine if the methodology is robust enough to tackle a different geographic scale and second to see if the regional approach is consistent with the national scale. In this case study, the ArcGIS® spatial tool is used before optimisation to identify the geographic items that are further used in the optimisation step. A scenario with an economic cycle is also considered. Mono- and multi-objective optimisations exhibit some differences concerning the degree of centralisation of the network and the selection of the production technology type and size. The obtained results confirm that different spatial and temporal scales are required to encompass the complexity of the problem.
62

Optimisation du fonctionnement d'un générateur de hiérarchies mémoires pour les systèmes de vision embarquée / Optimization of the operation of a generator of memory hierarchies for embedded vision systems

Hadj Salem, Khadija 26 April 2018 (has links)
Les recherches de cette thèse portent sur la mise en oeuvre des méthodes de la rechercheopérationnelle (RO) pour la conception de circuits numériques dans le domaine du traitementdu signal et de l’image, plus spécifiquement pour des applications multimédia et de visionembarquée.Face à la problématique de “Memory Wall”, les concepteurs de systèmes de vision embarquée,Mancini et al. (Proc.DATE, 2012), ont proposé un générateur de hiérarchies mémoiresad-hoc dénommé Memory Management Optimization (MMOpt). Cet atelier de conception estdestiné aux traitements non-linéaires afin d’optimiser la gestion des accès mémoires de cestraitements. Dans le cadre de l’outil MMOpt, nous abordons la problématique d’optimisationliée au fonctionnement efficace des circuits de traitement d’image générés par MMOpt visantl’amélioration des enjeux de performance (contrainte temps-réel), de consommation d’énergieet de coût de production (contrainte d’encombrement).Ce problème électronique a été modélisé comme un problème d’ordonnancement multiobjectif,appelé 3-objective Process Scheduling and Data Prefetching Problem (3-PSDPP), reflétantles 3 principaux enjeux électroniques considérés. À notre connaissance, ce problème n’apas été étudié avant dans la littérature de RO. Une revue de l’état de l’art sur les principaux travauxliés à cette thèse, y compris les travaux antérieurs proposés par Mancini et al. (Proc.DATE,2012) ainsi qu’un bref aperçu sur des problèmes voisins trouvés dans la littérature de RO,a ensuite été faite. En outre, la complexité de certaines variantes mono-objectif du problèmed’origine 3-PSDPP a été établie. Des approches de résolution, y compris les méthodes exactes(PLNE) et les heuristiques constructives, sont alors proposées. Enfin, la performance de cesméthodes a été comparée par rapport à l’algorithme actuellement utilisé dans l’outil MMOpt,sur des benchmarks disponibles dans la littérature ainsi que ceux fournis par Mancini et al.(Proc.DATE, 2012).Les solutions obtenues sont de très bonne qualité et présentent une piste prometteuse pouroptimiser les performances des hiérarchies mémoires produites par MMOpt. En revanche, vuque les besoins de l’utilisateur de l’outil sont contradictoires, il est impossible de parler d’unesolution unique en optimisant simultanément les trois critères considérés. Un ensemble debonnes solutions de compromis entre ces trois critères a été fourni. L’utilisateur de l’outilMMOpt peut alors décider de la solution qui lui est la mieux adaptée. / The research of this thesis focuses on the application of the Operations Research (OR)methodology to design new optimization algorithms to enable low cost and efficient embeddedvision systems, or more generally devices for multimedia applications such as signal and imageprocessing.The design of embedded vision systems faces the “Memory Wall” challenge regarding thehigh latency of memories holding big image data. For the case of non-linear image accesses, onesolution has been proposed by Mancini et al. (Proc. DATE 2012) in the form of a software tool,called Memory Management Optimization (MMOpt), that creates an ad-hoc memory hierarchiesfor such a treatment. It creates a circuit called a Tile Processing Unit (TPU) that containsthe circuit for the treatment. In this context, we address the optimization challenge set by theefficient operation of the circuits produced by MMOpt to enhance the 3 main electronic designcharacteristics. They correspond to the energy consumption, performance and size/productioncost of the circuit.This electronic problem is formalized as a 3-objective scheduling problem, which is called3-objective Process Scheduling and Data Prefetching Problem (3-PSDPP), reflecting the 3 mainelectronic design characteristics under consideration. To the best of our knowledge, this problemhas not been studied before in the OR literature. A review of the state of the art, including theprevious work proposed by Mancini et al. (Proc.DATE, 2012) as well as a brief overview onrelated problems found in the OR literature, is then made. In addition, the complexity of someof the mono-objective sub-problems of 3-PSDPP problem is established. Several resolutionapproaches, including exact methods (ILP) and polynomial constructive heuristics, are thenproposed. Finally, the performance of these methods is compared, on benchmarks available inthe literature, as well as those provided by Mancini et al. (Proc.DATE, 2012), against the onecurrently in use in the MMOpt tool.The results show that our algorithms perform well in terms of computational efficiency andsolution quality. They present a promising track to optimize the performance of the TPUs producedby MMOpt. However, since the user’s needs of the MMOpt tool are contradictory, such aslow cost, low energy and high performance, it is difficult to find a unique and optimal solutionto optimize simultaneously the three criteria under consideration. A set of good compromisesolutions between these three criteria was provided. The MMOpt’s user can then choose thebest compromise solution he wants or needs.
63

Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances / Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances

Angelis Cordeiro, Daniel de 09 February 2012 (has links)
L'informatique a changé profondément les aspects méthodologiques du processus de découverte dans les différents domaines du savoir. Les chercheurs ont à leur disposition aujourd'hui de nouvelles capacités qui permettent d'envisager la résolution de nouveaux problèmes. Les plates-formes parallèles et distribués composées de ressources partagés entre différents participants peuvent rendre ces nouvelles capacités accessibles à tout chercheur et offre une puissance de calcul qui a été limitée jusqu'à présent, aux projets scientifiques les plus grands (et les plus riches). Dans ce document qui regroupe les résultats obtenus pendant mon doctorat, nous explorons quatre facettes différentes de la façon dont les organisations s'engagent dans une collaboration sur de plates-formes parallèles et distribuées. En utilisant des outils classiques de l'analyse combinatoire, de l'ordonnancement multi-objectif et de la théorie des jeux, nous avons montré comment calculer des ordonnancements avec un bon compromis entre les résultats obtenu par les participants et la performance globale de la plate-forme. En assurant des résultats justes et en garantissant des améliorations de performance pour les différents participants, nous pouvons créer une plate-forme efficace où chacun se sent toujours encourager à collaborer et à partager ses ressources. Tout d'abord, nous étudions la collaboration entre organisations égoïstes. Nous montrons que le comportement égoïste entre les participants impose une borne inférieure sur le makespan global. Nous présentons des algorithmes qui font face à l'égoïsme des organisations et qui présentent des résultats équitables. La seconde étude porte sur la collaboration entre les organisations qui peuvent tolérer une dégradation limitée de leur performance si cela peut aider à améliorer le makespan global. Nous améliorons les bornes d'inapproximabilité connues sur ce problème et nous présentons de nouveaux algorithmes dont les garanties sont proches de l'ensemble de Pareto (qui regroupe les meilleures solutions possibles). La troisième forme de collaboration étudiée est celle entre des participants rationnels qui peuvent choisir la meilleure stratégie pour leur tâches. Nous présentons un modèle de jeu non coopératif pour le problème et nous montrons comment l'utilisation de "coordination mechanisms" permet la création d'équilibres approchés avec un prix de l'anarchie borné. Finalement, nous étudions la collaboration entre utilisateurs partageant un ensemble de ressources communes. Nous présentons une méthode qui énumère la frontière des solutions avec des meilleurs compromis pour les utilisateurs et sélectionne la solution qui apporte la meilleure performance globale. / Computer science is deeply changing methodological aspects of the discovery process in different areas of knowledge. Researchers have at their disposal new capabilities that can create novel research opportunities. Parallel and distributed platforms composed of resources shared between different participants can make these new capabilities accessible to every researcher at every level, delivering computational power that was restricted before to bigger (and wealthy) scientific projects. This work explores four different facets of the rules that govern how organizations engage in collaboration on modern parallel and distributed platforms. Using classical combinatorial tools, multi-objective scheduling and game-theory, we showed how to compute schedules with good trade-offs between the results got by the participants and the global performance of the platform. By ensuring fair results and guaranteeing performance improvements for the participants, we can create an efficient platform where everyone always feels encouraged to collaborate and to share its resources. First, we study the collaboration between selfish organizations. We show how the selfish behavior between the participants imposes a lower bound on the global makespan. We present algorithms that cope with the selfishness of the organizations and that achieve good fairness in practice. The second study is about collaboration between organizations that can tolerate a limited degradation on their performance if this can help ameliorate the global makespan. We improve the existing inapproximation bounds for this problem and present new algorithms whose guarantees are close to the Pareto set. The third form of collaboration studied is between rational participants that can independently choose the best strategy for their jobs. We present a non-cooperative game-theoretic model for the problem and show how coordination mechanisms allow the creation of approximate pure equilibria with bounded price of anarchy. Finally, we study collaboration between users sharing a set of common resources. We present a method that enumerates the frontier of best compromise solutions for the users and selects the solution that brings the best value for the global performance function.
64

Optimization of dynamic behavior of assembled structures based on generalized modal synthesis / Optimisation du comportement dynamique des systèmes complexes basée sur la méthode synthèse modale généralisée

Huang, Xingrong 21 November 2016 (has links)
Dans le processus de conception des véhicules, la vibration et le bruit sont des sujets d’étude très importants. En effet, les vibrations sont susceptibles d’affecter le comportement dynamique des structures et le bruit dégrade le confort acoustique des passagers. L’objectif principal de la thèse est de proposer un ensemble de méthodes pour l’optimisation du comportement dynamique des systèmes complexes afin de réduire les vibrations des structures et le bruit dans l’habitacle. À cet effet, on s’intéresse à des stratégies de contrôle des interfaces, comme le collage de couches viscoélastiques sur les zones les plus déformées, ou l’introduction de dispositifs frottants calibrés pour ajouter de l’amortissement à certaines fréquences de résonance. Les structures assemblées résultantes sont étudiées numériquement par une méthode de synthèse modale généralisée. La méthode de synthèse modale proposée contient plusieurs niveaux de condensation. Le premier concerne les degrés de libertés (DDL) internes de chaque sous-structure. La deuxième condensation s’effectue sur les modes de branches, de sorte à réduire le nombre de DDL aux interfaces entre les sous-structures. Pour les systèmes couplés fluide/structure, une troisième condensation portant sur les DDL du fluide est proposée. Suite à ces condensations, la dimension du système est fortement réduite. Cette méthode permet alors d’obtenir aussi bien la réponse forcée de la structure que les fluctuations du champ de pression dans le fluide. Les chemins de transmission acoustiques et vibratoires peuvent également être déduits des contributions modales intermédiaires. On montre que ces paramètres modaux peuvent être utilisés comme fonctions objectif pour une démarche d’optimisation des interfaces. Le front de Pareto des conceptions optimales est obtenu avec un algorithme génétique multi-objectif élitiste, appliqué à une approximation par krigeage de la fonction objectif. Cette approche modale est étendue à l’étude de systèmes non-linéaires. L’hypothèse fondamentale est que les modes non-linéaires sont faiblement couplés. Les paramètres modaux non-linéaires (fréquences propres, amortissements...), dépendent des amplitudes modales. L’idée est alors de calculer des modes normaux non-linéaires en fonction de leur amplitude et de superposer leurs réponses pour obtenir celle de la structure. La méthode est appliquée à des systèmes incorporant des non-linéarités de type Duffing et de frottement sec. Le cas particulier du frottement sec est considéré à travers un modèle de Masing généralisé. Deux approches modales sont développées : l’une basée sur les modes complexes, et l’autre basée sur les modes réels. L’utilisation de modes complexes ou réels dans la synthèse modale conduit à des termes d’amortissement par frottement différents. On montre que la synthèse modale non-linéaire combinée au modèle de Masing généralisé aboutit à une méthode numérique simple, rapide et efficace pour décrire le comportement non-linéaire de structures soumise à du frottement sec. / Noise and vibration are important topics in the automotive industry for several reasons, including passenger comfort and structural integrity. The main objective of this thesis is to propose a series of appropriate methods to optimize structural system characteristics, so that the vibration and noise can be reduced. To achieve this goal, interface control strategies are employed, including bonding viscoelastic layers onto the most heavily deformed zones and introducing frictional damping devices calibrated on certain resonance frequencies. Such built-up structural systems are numerically investigated via a generalized modal synthesis approach that incorporates several groups of modes. The employed modal synthesis approach consists of several levels of condensation. The first one is on the internal degrees of freedoms (DOFs) of each substructure, and the second condensation is on the branch modes so as to reduce the boundary DOFs among substructures. For coupled fluid-structural systems, a third condensation on the fluid DOFs is suggested. With these condensation techniques, the system dimension can be significantly reduced. The method allows us to obtain the forced response of the structures as well as the pressure variation of the fluids. Additionally, modal parameters characterizing vibration and noise transmission paths can be deduced as mid-stage results. We show that these modal parameters can be used as optimization objective during the interface configuration design. The Pareto front of the optimal design is achieved by employing Kriging approximations followed with an elitist multi-objective genetic algorithm. Another advantage of the modal approach is that a modal overview on the system characteristics is provided by analyzing the natural frequencies, modal damping ratios and the aforementioned modal parameters. The modal synthesis approach is further extended to study nonlinear systems. The basic assumption is that the nonlinear modes are weakly coupled. Nonlinear modal parameters, such as modal frequency and modal damping ratio, contain the essential nonlinear information and depend on modal amplitude. The main idea is to compute nonlinear normal modes according to their modal amplitude and superimpose the response of several nonlinear modes to obtain the overall forced response. The method is applied to systems involving Duffing and dry friction nonlinearities. In the case of dry friction, a generalized Masing model is considered to capture the dry friction nature. Both complex modes and real modes are used in the modal synthesis, leading to different frictional damping terms. We show that the nonlinear modal synthesis combined with the generalized Masing model yields a simple, fast and efficient numerical method to describe nonlinear performance of structures with dry friction.
65

Conception physique statique et dynamique des entrepôts de données / Static and Dynamic Data Warehouses Design

Bouchakri, Rima 17 September 2015 (has links)
Les entrepôts de données permettent le stockage et la consolidation, en une seule localité, d'une quantité gigantesque d'information pour être interrogée par des requêtes décisionnelles complexes dites requêtes de jointures en étoiles. Afin d'optimiser ses requêtes, plusieurs travaux emploient des techniques d'optimisations comme les index de jointure binaires et la fragmentation horizontale durant la phase de conception physique d'un entrepôt de données. Cependant, ces travaux proposent des algorithmes statiques qui sélectionnent ces techniques de manière isolée et s'intéressent à l'optimisation d'un seul objectif à savoir les performances des requêtes. Notre principale contribution dans cette thèse est de proposer une nouvelle vision de sélection des techniques d'optimisation. Notre première contribution est une sélection incrémentale qui permet de mettre à jour de manière continuelle le schéma d'optimisation implémenté sur l'ED, ce qui assure l'optimisation continuelle des requêtes décisionnelles. Notre seconde contribution est une sélection incrémentale jointe qui combine deux techniques d'optimisation pour couvrir l'optimisation d'un maximum de requêtes et respecter au mieux les contraintes d'optimisation liées à chacune de ces techniques. A l'issu de ces propositions, nous avons constaté que la sélection incrémentale engendre un coût de maintenance de l'ED. Ainsi, notre troisième proposition est une formulation et r!:solution du problème multi-objectif de sélection des techniques d'optimisation où il faut optimiser deux objectifs: la performance des requêtes et le coût de maintenance de l'ED. / Data Warehouses store into a single location a huge amount of data. They are interrogated by complex decisional queries called star join queries. To optimize such queries, several works propose algorithms for selecting optimization techniques such as Binary Join Indexes and Horizontal Partitioning during the DW physical design. However, these works propose static algorithms, select optimization techniques in and isolated way and focus on optimizing a single objective which is the query performance. Our main contribution in this thesis is to propose a new vision of optimization techniques selection. Our first contribution is an incremental selection that updates continuously the optimization scheme implemented on the DW, to ensure the continual optimization of queries. To deal with queries complexity increase, our second contribution is a join incremental selection of two optimization techniques which covers the optimization of a maximum number or queries and respects the optimization constraints. Finally, we note that the incremental selection generates a maintenance cost to update the optimization schemes. Thus, our third prop05ilion is to formulate and resolve a multi-objective selection problem or optimization techniques where we have two objectives to optimize : queries performance and maintenance cost of the DW.
66

Conception optimale des moteurs à réluctance variable à commutation électronique pour la traction des véhicules électriques légers / Optimal design of switched reluctance motors for light electric traction applications

Ilea, Dan 25 October 2011 (has links)
Le domaine de la traction électrique a suscité un très grand intérêt dans les dernières années. La conception optimale de l'ensemble moteur électrique de traction – onduleur doit prendre en compte une variété de critères et contraintes. Étant donnée la liaison entre la géométrie du moteur et la stratégie de commande de l'onduleur, l'optimisation de l'ensemble de traction doit prendre en considération, en même temps, les deux composants.L'objectif de la thèse est la conception d'un outil d'optimisation appliqué à un système de traction électrique légère qu'emploie un moteur à réluctance variable alimenté (MRVCE) par un onduleur triphasé en pont complet. Le MRVCE est modélisé en utilisant la technique par réseau de perméances. En même temps, la technique de commande électronique peut être facilement intégrée dans le modèle pour effectuer l'analyse dynamique du fonctionnement du moteur. L'outil d'optimisation réalisé utilise l'algorithme par essaim de particules, modifié pour résoudre des problèmes multi-objectif. Les objectifs sont liés à la qualité des caractéristiques de fonctionnement du moteur, en temps que les variables d'optimisation concernent la géométrie du moteur aussi que la technique de commande. Les performances de l'algorithme sont comparées avec ceux de l'algorithme génétique (NSGA-II) et d'une implémentation classique de l'algorithme par essaim de particules multi-objectif.Finalement, un prototype de moteur à réluctance variable est construit et le fonctionnement du MRVCE alimenté depuis l'onduleur triphasé en pont complet est implémenté et les outils de modélisation et d'optimisation sont validés / The interest for the electric traction applications has been growing in the last few years. The optimal design of the electric motor and of the inverter that powers it needs to consider a long list of restrictions and criteria. Because of the fact that the geometry of the motor and the switching strategy are closely linked, the optimization of the traction solution needs to consider both, at the same time.The objective of this thesis is the development of an optimization tool applied for the optimization of an electric traction solution that uses the switched reluctance motor (SRM) fed from a three phase full bridge inverter. The SRM is modeled using Permeance Network Analysis (PNA). The switching technique can be easily integrated in the model, which gives the possibility to run a dynamic analysis. The optimization tool created uses the Particle Swarm Optimization (PSO) algorithm, modified for multi-objective problems. The algorithms performances are compared with those of the Genetic Algorithm, using the NSGA-II multi-objective technique and with a classic version of multiple objective particle swarm optimizer (MOPSO).Finally, a SRM prototype is constructed and the drive solution using a full-bridge three phase inverter is implemented. The modeling and optimization tools are thus experimentally validated
67

Contrôle actif acoustique du bruit large bande dans un habitacle automobile / Active control of broadband noise in a car cabin

Loiseau, Paul 28 October 2016 (has links)
L’atténuation des bruits gênants dans une automobile est classiquement réalisée par ajustement des caractéristiques mécaniques du véhicule : masse, raideur et amortissement. C’est une approche dite passive. Malheureusement, elle induit un ajout de masse important pour traiter les basses fréquences. Le contrôle actif de bruit (atténuation d’un bruit par superposition d’un contrebruit) est actuellement envisagé comme une solution possible à ce problème. L’objectif de cette thèse est d’évaluer les performances atteignables par cette solution. Un système acoustique étant par essence fortement résonant, sa modélisation sur une large plage de fréquence conduit à des modèles d’ordre élevé, pour l’obtention desquels une méthode d’identification appropriée doit être utilisée. C’est la méthode dessous espaces par approche fréquentielle dans le domaine continu qui a été retenue.La traduction du cahier des charges conduit à un problème de régulation multivariable H1 multi-objectif et multi-modèle avec contrainte de stabilité forte. Par ailleurs, actionneurs et capteurs ne sont pas colocalisés et on ne mesure pas la perturbation à rejeter. La volonté d’évaluer au plus près les performances atteignables justifie la résolution du problème par optimisation non lisse. Cette approche évite tout pessimisme, mais nécessite de par son caractère local une bonne initialisation et une structuration du régulateur parcimonieuse.La méthodologie proposée a été validée en simulation et expérimentalement. Elle permet une évaluation et une comparaison précises des performances atteignables en fonction des contraintes sur les mesures et les moyens d’action disponibles. / Classical methods used for noise reduction in cars are based on adjusting the mechanical properties: mass, stiffness and damping. They are qualified as passive and induce significative addition of weight for reducing low frequency noises. Active noise control is seen as a possible solution to achieve low frequency noise attenuation and weight reduction.The goal of this work is to evaluate achievable performances with such solution.Acoustic enclosures are known to be resonant systems of highorder. Obtaining a model of it, therefore requires a suitable identification method. The approach chosen is based on subspace methods. It processes data in the frequency domain for obtaining a continuous time model.The control problem derived from the specifications is a MIMO H1, multi-objective and multi-model problem with a strong stability constraint. Futhermore, actuators and sensors are not-colocated, and no measure of the disturbance is available. In order to precisely evaluate the achievable performances, this problem is solved using non smooth optimization.Such approach ensures the absence of pessimism, but requires an appropriate initialization and a parsimonious controller structure, because it does not ensure convergence toward the global optimum. The proposed methodology was validated in simulation and experimentally. It allows a precise evaluation and comparison of achievable performances according to the constraints on available measures and means of action.
68

Development of an integrated approach for wastewater treatment plant optimization based on dynamic modelling and environmental assessment / Développement d'une approche intégrée pour l'optimisation des stations d’épuration couplée à la modélisation dynamique et l'évaluation environnementale

Bisinella de faria, Ana barbara 18 October 2016 (has links)
Les stations d’épuration se tournent actuellement vers des installations de récupération d'énergie et des nutriments. Dans le même temps, elles sont soumises à une réglementation de plus en plus stricte en ce qui concerne l'environnement et la santé humaine. Face au défi ambitieux de réduire les coûts d'exploitation et les impacts environnementaux tout en garantissant la robustesse du procédé, il est nécessaire de développer des outils capables de fournir une évaluation intégrée du procédé. L’objectif de ce travail est de développer une plateforme réaliste et prédictive contenant trois aspects: la modélisation rigoureuse et dynamique de l’ensemble de la station d’épuration; l'analyse de cycle de vie aux frontières étendues pour l'évaluation des scénarios et enfin un outil d'optimisation multi-objectif efficace. La plateforme développée pour l'évaluation environnementale couplée à la modélisation dynamique a d'abord été appliquée à plusieurs cas d’étude. Ainsi des résultats de performance et d’impacts environnementaux ont été obtenus pour la séparation de l’urine à la source, la décantation primaire avancée et le traitement de l'urine par nitritation/ oxydation anaérobie de l’ammonium, et d’autres filières. Compte tenu des importants avantages de la séparation de l’urine établis par les résultats précédents, un générateur d’influents phénoménologique, flexible et dynamique a été adapté afin de fournir des données dynamiques réalistes concernant les flux d'urine et des eaux usées dans les différents scénarios de rétention d'urine. Enfin, comme la combinaison complexe de processus biologiques, chimiques et physiques conduit à un problème lourd en calcul, une étude de faisabilité (temps de calcul et fiabilité) a été réalisée sur l'optimisation multi-objectif. L'obtention d'un ensemble de solutions qui évite toute discrimination préalable entre les coûts, l'environnement et les performances ont permis la discussion des enjeux impliqués. Finalement, la plateforme complète a été appliquée à plusieurs cas d’étude et clarifie les aspects opérationnels des options plus durables en matière de gestion et de traitement des eaux usées. / Wastewater treatment plants are moving towards energy and nutrients recovery facilities. Simultaneously, they are submitted to stricter regulation with respect to environment and human health. Facing the great challenge of reducing operational costs along with the reduction of environmental impacts and the guaranty of plants robustness, tools might be developed in order to provide an integrated assessment. The goal of this work is to develop a reliable and predictive framework containing rigorous dynamic wide-plant modelling, extended boundaries life cycle assessment for scenarios evaluation and an efficient multi-objective optimization tool. The developed framework for environmental evaluation coupled to dynamic modelling was initially applied to several case studies including urine source separation, enhanced primary clarification and urine treatment by nitritation/ anaerobic ammonium oxidation, offering both performance results and environmental hotspots. Given the important benefits of the urine source separation provided by the previous results, a flexible and dynamic phenomenological influent generator was adapted in order to provide realistic dynamic data concerning urine and wastewater streams in different urine retention scenarios. Finally, as the complex combination of biological, chemical and physical processes leads to a computational expensive problem, a feasibility study (computational time and reliability) on the multi-objective optimization was conducted. Obtaining a set of solutions that avoids any prior discrimination among costs, environment and performance allowed thus the discussion of the involved trade-offs. Finally, the complete framework was applied to several case studies lightening on operational aspects of more sustainable options on wastewater management and treatment.
69

Contribution à la conception robuste de réseaux électriques de grande dimension au moyen des métaheuristiques d’optimisation / Contribution to the robust design of large electrical networks using metaheuristic's optimization

Ismail, Boussaad 06 May 2014 (has links)
Comme beaucoup de systèmes, un réseau électrique doit faire face à des pannes qui, compte tenu de sa grande connectivité, peuvent s'étendre à des régions entières : on parle alors de blackout (phénomène d'avalanche), c'est-à-dire ayant des conséquences à grande échelle. La taille des réseaux électriques et leur complexité rendent difficile la compréhension de ces phénomènes qui émergent localement. Un certain nombre de travaux existe et se fond sur un usage intensif des outils de physique statistique. L'adaptation de méthodes de percolation et les systèmes critiques auto-organisés sont autant d'outils de choix pour décrire les propriétés statistiques et topologiques d'un réseau. Les outils d'optimisation par métaheuristiques, plus particulièrement l'optimisation par essaim de particules (OEP, ou PSO en anglais) et les algorithmes génétiques (AGs), se sont révélés être la pierre angulaire de ce travail et ont permis de définir des structures opérationnelles. Les travaux développés dans ce domaine sont encore émergents et cette thèse y amène une contribution à plusieurs titres. Nous avons mis tout d'abord à profit des techniques d'optimisation afin de mieux “ rigidifier ” un réseau électrique en couplant la topologie de ce dernier au maintien des tensions aux noeuds du réseau par implémentation de FACTS (Flexible Alternative Current Transmission System). Pour le placement optimal de FACTS, l'objectif est de déterminer la répartition optimale de la puissance réactive, en relation avec la localisation et le dimensionnement optimal de FACTS, afin d'améliorer les performances d'un réseau électrique. Quatre principales questions sont alors abordées: 1) Où placer des FACTS dans le réseau ? Combien de FACTS ? Quelle puissance attribuer à ces FACTS ? Quel(s) type(s) de FACTS ? A quel prix ? Dans cette thèse, toutes ces questions seront modélisées et abordées d'un point de vue électrique et optimal en appliquant, dans un premier temps, l'optimisation par essaim de particules OEP basique puis, dans un deuxième temps, en proposant un nouvel algorithme OEP (alpha-SLPSO) et une recherche locale (alpha-LLS) s'inspirant ainsi du concept de l'OEP basique et des lois de probabilité stables dites «alpha-stables de Lévy». Par ailleurs, l'ampleur du projet défini par l'équipe @RiskTeam d'Alstom Grid oblige l'utilisation de plusieurs techniques (tirées de la physique, des statistiques, etc.) destinées à des fins particulières dont l'estimation des paramètres des lois alpha-stable de Lévy. Face à l'échec des techniques déjà existantes pour l'estimation des lois alpha −stable de paramètre alpha < 0.6 , nous proposons un nouvel estimateur semi-paramétrique de cette famille de probabilité utilisant les métaheuristiques pour résoudre le problème d'optimisation sous-jacent. Enfin, en annexe de cette thèse, un outil d'aide à la décision destiné à une équipe interne d'Alstom Grid qui consiste en l'optimisation de la topologie interne d'un parc éolien est détaillé dans le dernier chapitre / Like many systems, an electrical power grid must contend with faillures which, given its higth connectivity, could spread to entire regions: this is referred to blackout (avalanche phenomena), ie. with large-scale consequences. The size of power grids and their complexity make difficult to grasp these locally emergent phenomena. There is a number of existing works that were based on extensive use of statistical physics tools. The adaptation of percolation's methods and the Self-Organized-Criticality systems provide practical tools to describe the statistical and topological properties of a network. Optimization tools by metaheuristics particularly, particle swarm optimization (PSO) and genetic algorithms (GA) have proved to be the cornerstone of this work and helped to define operational structures. Works developed in this area are still emerging. This thesis brings a contribution in several ways. First of all, we have taken advantage in optimization technics to better "stiffen" a power grid by coupling its topology with maintaining voltages at the nodes of the network using FACTS (Flexible Alternative Current Transmission System). In the optimal location FACTS problem, the objective is to determine the optimal allocation of reactive power, in relation to the location and optimal sizing of FACTS, in order to improve the performance of the power grid. Four main issues are then discussed: 1) Where to place FACTS in the network? How many FACTS? What power attributed to these FACTS? What type(s) attributed to these FACTS? At what prices ? In this thesis, all these questions will be modeled and discussed from the point of view of optimal power by applying, firstly, the strandard particle swarm optimization and by proposing a novel particle swarm optimization (alpha-SLPOS) and a local search (alpha-LLS). These two algorithms are inspired by the basic concept of PSO and the stable distributions (alpha-stable laws). Moreover, the scope of the project defined by the team @RiskTeam Alstom Grid requires the use of several techniques (from physics, statistics, etc) for particular purposes including the alpha-stable parametere estimation problem. Facing the failure of the existing methods for estimating the parameters of alpha-stable laws for alpha<0.6, we propose a novel semi-parametric estimator for such of probability distribution familly using metaheuristic to solve the underlying problem of optimization. Finally, in the end of the thesis, a decision support tool is designed for an internal team of Alstom Grid to optimize the internal topology of a wind farm
70

Métamodélisation et optimisation de dispositifs photoniques / Metamodeling and optimization of photonics devices

Durantin, Cédric 28 May 2018 (has links)
La simulation numérique est couramment utilisée pour étudier le comportement d’un composant et optimiser sa conception. Pour autant, chaque calcul est souvent coûteux en termes de temps et l’optimisation nécessite de résoudre un grand nombre de fois le modèle numérique pour différentes configurations du composant. Une solution actuelle pour réduire le temps de calcul consiste à remplacer la simulation coûteuse par un métamodèle. Des stratégies sont ensuite mises en place pour réaliser l’optimisation du composant à partir du métamodèle. Dans le cadre de cette thèse, trois dispositifs représentatifs des applications pouvant être traitées au sein du CEA LETI sont identifiés. L’étude de ces cas permet d’établir deux problématiques à résoudre. La première concerne la métamodélisation multi-fidélité, qui consiste à construire un métamodèle à partir de deux simulations du même composant ayant une précision différente. Les simulations sont obtenues à partir de différentes approximations du phénomène physique et aboutissent à un modèle appelé haute-fidélité (précis et coûteux) et un modèle basse fidélité (grossier et rapide à évaluer). Le travail sur cette méthode pour le cas de la cellule photoacoustique a amené au développement d’un nouveau métamodèle multifidélité basé sur les fonctions à base radiale. La deuxième problématique concerne la prise en compte des incertitudes de fabrication dans la conception de dispositifs photoniques. L’optimisation des performances de composants en tenant compte des écarts observés entre la géométrie désirée et la géométrie obtenue en fabrication a nécessité le développement d’une méthode spécifique pour le cas du coupleur adiabatique. / Numerical simulation is widely employed in engineering to study the behavior of a device and optimize its design. Nevertheless, each computation is often time consuming and, during an optimization sequence, the simulation code is evaluated a large number of times. An interesting way to reduce the computational burden is to build a metamodel (or surrogate model) of the simulation code. Adaptive strategies are then set up for the optimization of the component using the metamodel prediction. In the context of this thesis, three representative devices are identified for applications that can be encountered within the CEA LETI optics and photonics department. The study of these cases resulted in two problems to be treated. The first one concerns multifidelity metamodeling, which consists of constructing a metamodel from two simulations of the same component that can be hierarchically ranked in accuracy. The simulations are obtained from different approximations of the physical phenomenon. The work on this method for the case of the photoacoustic cell has generated the development of a new multifidelity surrogate model based on radial basis function. The second problem relate to the consideration of manufacturing uncertainties in the design of photonic devices. Taking into account the differences observed between the desired geometry and the geometry obtained in manufacturing for the optimization of the component efficiency requires the development of a particular method for the case of the adiabatic coupler. The entire work of this thesis is capitalized in a software toolbox.

Page generated in 0.0558 seconds