• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 11
  • 4
  • Tagged with
  • 60
  • 60
  • 24
  • 21
  • 15
  • 12
  • 12
  • 10
  • 10
  • 10
  • 8
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Optimisation polynomiale et variétés polaires : théorie, algorithmes, et implantations

Greuet, Aurélien 05 December 2013 (has links) (PDF)
Le calcul de l'infimum global $f^*$ d'un polynôme à $n$ variables sous contraintes est une question centrale qui apparaît dans de nombreux domaines des sciences de l'ingénieur. Pour certaines applications, il est important d'obtenir des résultats fiables. De nombreuses techniques ont été développées dans le cas où les contraintes sont données par des inéquations polynomiales. Dans cette thèse, on se concentre sur le problème d'optimisation d'un polynôme à $n$ variables sous des contraintes définies par des équations polynomiales à $n$ variables. Notre but est d'obtenir des outils, algorithmes et implémentations efficaces et fiables pour résoudre ces problèmes d'optimisation. Notre stratégie est de ramener le problème d'optimisation sous des contraintes qui définissent des ensembles algébriques de dimension quelconque à un problème équivalent, sous des nouvelles contraintes dont on maîtrise la dimension. La variété algébrique définie par ces nouvelles contraintes est l'union du lieu critique du polynôme objectif et d'un ensemble algébrique de dimension au plus 1. Pour cela, on utilise des objets géométriques définis comme lieux critiques de projections linéaires. Grâce au bon contrôle de la dimension, on prouve l'existence de certificats pour des bornes inférieures sur $f^*$ sur nos nouvelles variétés. Ces certificats sont donnés par des sommes de carrés et on ne suppose pas que $f^*$ est atteint. De même, on utilise les propriétés de nos objets géométriques pour concevoir un algorithme exact pour le calcul de $f^*$. S'il existe, l'algorithme renvoie aussi un minimiseur. Pour un problème avec $s$ contraintes et des polynômes de degrés au plus $D$, la complexité est essentiellement cubique en $(sD)^n$ et linéaire en la complexité d'évaluation des entrées. L'implantation, disponible sous forme de bibliothèque Maple, reflète cette complexité. Elle a permis de résoudre des problèmes inatteignables par les autres algorithmes exacts.
32

Optimisation Globale basée sur l'Analyse d'Intervalles : relaxation Affine et Limitation de la Mémoire / Global Optimization based on Interval Analysis : affine Relaxation and Limited Memory

Ninin, Jordan 08 December 2010 (has links)
Depuis une vingtaine d’années, la résolution de problèmes d’optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l’analyse d’intervalles ont su trouver leur place, car ils ont l’avantage de prouver l’optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu’à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c’est pourquoi il est toujours nécessaire d’améliorer les techniques actuelles. Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l’arithmétique d’intervalles et l’arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l’arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d’inégalité que les problèmes originaux, les contraintes d’égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d’infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l’efficacité de cette approche. Un autre aspect de cette thèse a été l’étude d’une extension de ce type d’algorithmes en introduisant une limite sur mémoire disponible. L’idée principale de cette approche est de proposer un processus inverse de l’optimisation par le biais d’un principe métaheuristique : plutôt que d’améliorer des solutions locales à l’aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d’une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. Enfin, pour finir l’étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu’à la résolution d’un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l’intérêt de ce type d’algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique. / Since about thirty years, interval Branch and Bound algorithms are increasingly used to solve constrained global optimization problems in a deterministic way. Such algorithms are reliable, i.e., they provide an optimal solution and its value with guaranteed bounds on the error, or a proof that the problem under study is infeasible. Other approaches to global optimization, while useful and often less time-consuming than interval methods, do not provide such a guarantee. However, the exponential complexity in time and memory of interval Branch and Bound algorithms implies a limitation, so it is always necessary to improve these methods. In this thesis, we have developed new arithmetics based on interval arithmetic and affine arithmetic, to compute better lower and upper bounds of a factorable function over an interval. An automatic method for constructing linear relaxations of constrained global optimization problems is proposed. Such a construction is based on affine and interval arithmetics and uses operator overloading. These linear programs have exactly the same numbers of variables and of inequality constraints as the given problems. Each equality constraint is replaced by two inequalities. This new procedure for computing reliable bounds and certificates of infeasibility is inserted into a classical interval Branch and Bound algorithm. Extensive computation experiments, made on a sample of test problems from the COCONUT database, prove its effectiveness. Another aspect is the study of an extension of such a global optimization code by limiting the available memory. The main idea of this new kind of metaheuristique is to propose a reverse process of optimization via heuristics : rather than improving local solutions by using metaheuristics such as Taboo or VNS, we begin with an exact method and we modify it into a heuristic one. In such a way, the quality of the solution could be evaluated. Moreover, a study of the complexity of this metaheurisque has been done. Finally, we applied our algorithm to solve open problem in geometry, and to solve a design problem of an electric motor. The results have confirmed the usefulness of this kind of algorithms, solving open problems on convex polygons and offering innovative structures in electrical engineering.
33

Vision 3D multi-images : contribution à l’obtention de solutions globales par optimisation polynomiale et théorie des moments / Contribution to the global resolution of minimization problems in computer vision by polynomial optimization and moments theory

Bugarin, Florian 05 October 2012 (has links)
L’objectif général de cette thèse est d’appliquer une méthode d’optimisation polynomiale basée sur la théorie des moments à certains problèmes de vision artificielle. Ces problèmes sont en général non convexes et classiquement résolus à l’aide de méthodes d’optimisation locales Ces techniques ne convergent généralement pas vers le minimum global et nécessitent de fournir une estimée initiale proche de la solution exacte. Les méthodes d’optimisation globale permettent d’éviter ces inconvénients. L’optimisation polynomiale basée sur la théorie des moments présente en outre l’avantage de prendre en compte des contraintes. Dans cette thèse nous étendrons cette méthode aux problèmes de minimisation d’une somme d’un grand nombre de fractions rationnelles. De plus, sous certaines hypothèses de "faible couplage" ou de "parcimonie" des variables du problème, nous montrerons qu’il est possible de considérer un nombre important de variables tout en conservant des temps de calcul raisonnables. Enfin nous appliquerons les méthodes proposées aux problèmes de vision par ordinateur suivants : minimisation des distorsions projectives induites par le processus de rectification d’images, estimation de la matrice fondamentale, reconstruction 3D multi-vues avec et sans distorsions radiales. / The overall objective of this thesis is to apply a polynomial optimization method, based on moments theory, on some vision problems. These problems are often nonconvex and they are classically solved using local optimization methods. Without additional hypothesis, these techniques don’t converge to the global minimum and need to provide an initial estimate close to the exact solution. Global optimization methods overcome this drawback. Moreover, the polynomial optimization based on moments theory could take into account particular constraints. In this thesis, we extend this method to the problems of minimizing a sum of many rational functions. In addition, under particular assumptions of "sparsity", we show that it is possible to deal with a large number of variables while maintaining reasonable computation times. Finally, we apply these methods to particular computer vision problems: minimization of projective distortions due to image rectification process, Fundamental matrix estimation, and multi-view 3D reconstruction with and without radial distortions.
34

Heuristiques optimisées et robustes de résolution du problème de gestion d'énergie pour les véhicules électriques et hybrides / Optimized and robust heuristics for solving the problem of energy management for hybrid electric vehicles

Guemri, Mouloud 16 December 2013 (has links)
Le système étudié durant cette thèse est un véhicule électrique hybride avec deux sources d’énergies (Pile à combustible et Super-capacité). L’objectif fixé est de minimiser la consommation du carburant tout en satisfaisant la demande instantanée en puissance sous des contraintes de puissance et de capacité et de stockage. Le problème a été modélisé sous la forme d’un problème d’optimisation globale. Nous avons développé de nouvelles méthodes heuristiques pour le résoudre et proposé le calcul d’une borne inférieure de consommation, en apportant de meilleurs résultats que ceux trouvés dans la littérature. En plus, une étude de robustesse a été réalisée afin de minimiser la consommation de pire-cas suite à une perturbation ou du fait d’incertitudes sur les données d’entrée, précisément sur la puissance demandée. Le but de cette étude est de prendre en compte les perturbations dès la construction des solutions afin d’éviter l’infaisabilité des solutions non robustes en situation perturbée. Les heuristiques de résolution du problème robuste modélisé sous la forme d’un problème de Minimax ont fourni des solutions moins sensibles aux perturbations que les solutions classiques. / The system studied in this thesis is a hybrid electrical vehicle with two energy sources (fuel cell system and super-capacitor). The first goal is to minimize the fuel consumption whilst satisfying the requested power for each instant, taking into account constraints on the availability and the state of charge of the storage element. The system was modeled as a global optimization problem. The heuristics developped for obtaining the best power split between the two sources and the lower bound consumption computation proposed provide better results than those found in the literature. The second goal of the thesis is the study of the robustness of the solutions in order to minimize the worst-case consumption when perturbation happens or uncertainty is added to the input data. In this study the uncertainty concerns the power required for traction. The objective is to maintain the feasibility of solutions and limit the worst consumption that can happen due to a demand fluctuation. Dedicated heuristics are proposed for solving the identified robust variant of the problem, modeled as a Minimax problem. The solutions provided are less sensitive to the perturbations than the previous ones.
35

Propagation des ondes sismiques dans les milieux multiphasiques hétérogènes : modélisation numérique, sensibilité et inversion des paramètres poroélastiques / Seismic wave propagation in heterogeneous multiphasic media : numerical modelling, sensibility and inversion of poroelastic parameters

Dupuy, Bastien 25 November 2011 (has links)
La propagation des ondes sismiques dans les milieux poreux multiphasiques présente des enjeux nombreux, tant sur le plan environnemental (risques naturels, géotechnique, pollutions de nappes...) que pour les réservoirs (aquifères, hydrocarbures, stockages de CO2...). L'utilisation des ondes sismiques pour étudier ces milieux se justifie par le fait qu'en se propageant, les ondes sont déformées par le milieu qu'elles traversent et contiennent ainsi des informations aux capteurs sur les phases fluides et solides et sur le squelette poreux. Ce travail de thèse s'intéresse aux caractéristiques des ondes sismiques dans les milieux multiphasiques (plusieurs phases fluides et solides), depuis la description physique jusqu'à la caractérisation des paramètres constitutifs par inversion, en passant par la modélisation numérique 2D de la propagation. La première partie du travail a consisté à décrire la physique des milieux multiphasiques (phase par phase et leurs intéractions dynamiques) en utilisant des méthodes d'homogénéisation pour se ramener à un milieu équivalent défini par sept paramètres. Ainsi, dans des milieux simple porosité saturés et dans des milieux plus complexes (double porosité, partiellement saturés ou visco-poroélastiques), je peux calculer la propagation des ondes sismiques sans approximation. En effet, j'utilise une méthode numérique dans le domaine fréquence-espace qui permet de prendre en compte tous les termes qui dépendent de la fréquence sans approximation. La discrétisation spatiale utilise une méthode d'éléments finis discontinus (Galerkin discontinu) qui permet de considérer des milieux hétérogènes.Je montre notamment que les attributs sismiques (vitesses et atténuations) des milieux poreux complexes sont fortement dispersifs et les formes d'ondes complètes, calculées sans approximation, sont fortement dépendantes de la description physique du milieu. La caractérisation des paramètres poroélastiques s'effectue par inversion. Une méthode en deux étapes a été proposée : la première consiste en une inversion ``classique`` (tomographie, inversion des formes d'ondes complètes) des données (sismogrammes) pour obtenir des paramètres macro-échelles (attributs sismiques). La seconde étape permet de reconstruire, à partir des paramètres macro-échelles, les paramètres poroélastiques micro-échelles. Cette étape d'inversion utilise une méthode d'optimisation semi-globale (algorithme de voisinage). Une analyse de sensibilité montre qu'en connaissant a-priori certains paramètres, on peut inverser avec précision les paramètres du squelette poroélastique ou retrouver la nature du fluide saturant, à partir des vitesses de propagation. En revanche, pour retrouver la saturation en fluide, il est préférable de connaître les atténuations. Deux applications réalistes (monitoring de réservoir et hydrogéophysique) mettent en oeuvre ce type d'inversion en deux étapes et démontrent qu'à partir de données estimées par des méthodes classiques d'imagerie, on peut remonter à certains paramètres poroélastiques constitutifs. / Seismic wave propagation in multiphasic porous media have various environmental (natural risks, geotechnics, groundwater pollutions...) and ressources (aquifers, oil and gas, CO2 storage...) issues. When seismic waves are crossing a given material, they are distorted and thus contain information on fluid and solid phases. This work focuses on the characteristics of seismic waves propagating in multiphasic media, from the physical complex description to the parameter characterisation by inversion, including 2D numerical modelling of the wave propagation. The first part consists in the description of the physics of multiphasic media (each phase and their interactions), using several upscaling methods, in order to obtain an equivalent mesoscale medium defined by seven parameters. Thus, in simple porosity saturated media and in complex media (double porosity, patchy saturation, visco-poroelasticity), I can compute seismic wave propagation without any approximation. Indeed, I use a frequency-space domain for the numerical method, which allows to consider all the frequency dependent terms. The spatial discretisation employs a discontinuous finite elements method (discontinuous Galerkin), which allows to take into account complex interfaces.The computation of the seismic attributes (velocities and attenuations) of complex porous media shows strong variations in respect with the frequency. Waveforms, computed without approximation, are strongly different if we take into account the full description of the medium or an homogenisation by averages. The last part of this work deals with the poroelastic parameters characterisation by inversion. For this, I develop a two-steps method: the first one consists in a classical inversion (tomography, full waveform inversion) of seismograms data to obtain macro-scale parameters (seismic attributes). The second step allows to recover, from the macroscale parameters, the poroelastic micro-scale properties. This downscaling step uses a semi-global optimisation method (neighbourhood algorithm), which allows the sampling of the full model space (thanks to the low numerical cost of the analytic direct model). With the a-priori knowledge of some parameters, a sensibility analysis shows that I can invert precisely skeleton parameters or the saturating fluid type, from the velocities only. Nevertheless, to recover the fluid saturation, it is preferable to use the attenuations. This two-steps procedure is tested on two realistic applications (reservoir monitoring and subsurface hydrogeophysics) and show that we can recover some constituve poroelastic parameters.
36

Méthodes à intervalles et stratégies de parcours d'arbre pour l'optimisation globale / Interval methods and node selection strategies for constrained global optimisation

Sans, Olivier 19 November 2018 (has links)
Depuis quelques années, la méthode de séparation et évaluation par intervalles (Interval Branch and Bound) est de plus en plus utilisée pour résoudre les problèmes d’optimisation globale sous contraintes (Constrained Global Optimisation), notamment ceux qui sont non convexes. Contrairement à un grand nombre de ses concurrents, cette méthode permet de prouver l’optimalité d’une solution avec un niveau de précision donné. En revanche, son processus d’exploration arborescent implique une complexité exponentielle en temps et en mémoire dans le pire cas. De ce fait, le développement de techniques permettant d’accélérer la convergence de cette méthode définit un pan de recherche important.Une première contribution concerne les méthodes de contraction destinées à réduire l’espace de recherche. Nous proposons une nouvelle méthode de contraction, nommée TEC, qui généralise à plusieurs dimensions le principe de la disjonction constructive utilisée par la méthode de contraction CID. TEC construit un sous- arbre d’exploration par un processus de bissection et de contraction avant d’effectuer l’union des espaces de recherche associés aux feuilles de ce sous-arbre. Nous proposons deux variantes de TEC exploitant sa structure arborescente. La première, nommée Graham-TEC, permet d’apprendre des contraintes linéaires implicites utilisées pour améliorer la contraction. La seconde, nommée TEC-UB, permet d’apporter une amélioration à la recherche de solutions en faisant appel à une heuristique de recherche de solutions sur les feuilles du sous-arbre.Une deuxième contribution concerne les stratégies de parcours de l’arbre d’exploration. Nous étudions une stratégie récente qui fait un compromis entre un parcours en meilleur d’abord et un parcours en profondeur d’abord. Nous proposons des variantes de cet algorithme qui privilégient l’exploration des régions faisables.Les algorithmes proposés, testés sur un banc d’essai reconnu par la communauté, obtiennent des temps comparables à l’état de l’art. / In recent years, the Interval Branch and Bound method has been used more and more to solve constraint global optimization problems, especially those which are non-convex. Unlike many of its competitors, this method makes it possible to prove the optimality of a solution with a given level of accuracy. On the other hand, its tree exploration process implies an exponential complexity in time and memory in the worst case. That is why, the development of acceleration techniques defines an important piece of research.A first contribution concerns the interval filtering operators designed to reduce the search space. We propose a new interval filtering operator, named TEC, that generalizes to several dimensions the constructive disjunction principle used by the existing CID operator. TEC constructs a bounded subtree using a branch and contract process and returns the parallel-to-axes hull of the leaf domains/boxes. We propose two variants of TEC exploiting its tree structure. The first variant, named Graham-TEC, learns implicit linear constraints, used for improving the contraction. The second one, named TEC-UB, searches for a good feasible point inside a leaf box of the TEC subtree.A second contribution concerns the node selection strategies. We have studied a recent strategy that makes a compromise between a best-first search and a depth-first search and have proposed variants of this algorithm that favor the exploration of feasible regions.
37

Méthodes avancées d'optimisation par méta-modèles – Applicationà la performance des voiliers de compétition / Advanced surrogate-based optimization methods - Application to racing yachts performance

Sacher, Matthieu 10 September 2018 (has links)
L’optimisation de la performance des voiliers est un problème difficile en raison de la complexité du systèmemécanique (couplage aéro-élastique et hydrodynamique) et du nombre important de paramètres à optimiser (voiles, gréement,etc.). Malgré le fait que l’optimisation des voiliers est empirique dans la plupart des cas aujourd’hui, les approchesnumériques peuvent maintenant devenir envisageables grâce aux dernières améliorations des modèles physiques et despuissances de calcul. Les calculs aéro-hydrodynamiques restent cependant très coûteux car chaque évaluation demandegénéralement la résolution d’un problème non linéaire d’interaction fluide-structure. Ainsi, l’objectif central de cette thèseest de proposer et développer des méthodes originales dans le but de minimiser le coût numérique de l’optimisation dela performance des voiliers. L’optimisation globale par méta-modèles Gaussiens est utilisée pour résoudre différents problèmesd’optimisation. La méthode d’optimisation par méta-modèles est étendue aux cas d’optimisations sous contraintes,incluant de possibles points non évaluables, par une approche de type classification. L’utilisation de méta-modèles à fidélitésmultiples est également adaptée à la méthode d’optimisation globale. Les applications concernent des problèmesd’optimisation originaux où la performance est modélisée expérimentalement et/ou numériquement. Ces différentes applicationspermettent de valider les développements des méthodes d’optimisation sur des cas concrets et complexes, incluantdes phénomènes d’interaction fluide-structure. / Sailing yacht performance optimization is a difficult problem due to the high complexity of the mechanicalsystem (aero-elastic and hydrodynamic coupling) and the large number of parameters to optimize (sails, rigs, etc.).Despite the fact that sailboats optimization is empirical in most cases today, the numerical optimization approach is nowconsidered as possible because of the latest advances in physical models and computing power. However, these numericaloptimizations remain very expensive as each simulation usually requires solving a non-linear fluid-structure interactionproblem. Thus, the central objective of this thesis is to propose and to develop original methods aiming at minimizing thenumerical cost of sailing yacht performance optimization. The Efficient Global Optimization (EGO) is therefore appliedto solve various optimization problems. The original EGO method is extended to cases of optimization under constraints,including possible non computable points, using a classification-based approach. The use of multi-fidelity surrogates isalso adapted to the EGO method. The applications treated in this thesis concern the original optimization problems inwhich the performance is modeled experimentally and/or numerically. These various applications allow for the validationof the developments in optimization methods on real and complex problems, including fluid-structure interactionphenomena.
38

Application of Design-of-Experiment Methods and Surrogate Models in Electromagnetic Nondestructive Evaluation / Application des méthodes de plans d’expérience numérique et de modèles de substitution pour le contrôle nondestructif électromagnétique

Bilicz, Sandor 30 May 2011 (has links)
Le contrôle non destructif électromagnétique (CNDE) est appliqué dans des domaines variés pour l'exploration de défauts cachés affectant des structures. De façon générale, le principe peut se poser en ces termes : un objet inconnu perturbe un milieu hôte donné et illuminé par un signal électromagnétique connu, et la réponse est mesurée sur un ou plusieurs récepteurs de positions connues. Cette réponse contient des informations sur les paramètres électromagnétiques et géométriques des objets recherchés et toute la difficulté du problème traité ici consiste à extraire ces informations du signal obtenu. Plus connu sous le nom de « problèmes inverses », ces travaux s'appuient sur une résolution appropriée des équations de Maxwell. Au « problème inverse » est souvent associé le « problème direct » complémentaire, qui consiste à déterminer le champ électromagnétique perturbé connaissant l'ensemble des paramètres géométriques et électromagnétiques de la configuration, défaut inclus. En pratique, cela est effectué via une modélisation mathématique et des méthodes numériques permettant la résolution numérique de tels problèmes. Les simulateurs correspondants sont capables de fournir une grande précision sur les résultats mais à un coût numérique important. Sachant que la résolution d'un problème inverse exige souvent un grand nombre de résolution de problèmes directs successifs, cela rend l'inversion très exigeante en termes de temps de calcul et de ressources informatiques. Pour surmonter ces challenges, les « modèles de substitution » qui imitent le modèle exact peuvent être une solution alternative intéressante. Une manière de construire de tels modèles de substitution est d'effectuer un certain nombre de simulations exactes et puis d'approximer le modèle en se basant sur les données obtenues. Le choix des simulations (« prototypes ») est normalement contrôlé par une stratégie tirée des outils de méthodes de « plans d'expérience numérique ». Dans cette thèse, l'utilisation des techniques de modélisation de substitution et de plans d'expérience numérique dans le cadre d'applications en CNDE est examinée. Trois approches indépendantes sont présentées en détail : une méthode d'inversion basée sur l'optimisation d'une fonction objectif et deux approches plus générales pour construire des modèles de substitution en utilisant des échantillonnages adaptatifs. Les approches proposées dans le cadre de cette thèse sont appliquées sur des exemples en CNDE par courants de Foucault / Electromagnetic Nondestructive Evaluation (ENDE) is applied in various industrial domains for the exploration of hidden in-material defects of structural components. The principal task of ENDE can generally be formalized as follows: an unknown defect affects a given host structure, interacting with a known electromagnetic field, and the response (derived from the electromagnetic field distorted by the defect) is measured using one or more receivers at known positions. This response contains some information on the electromagnetic constitutive parameters and the geometry of the defect to be retrieved. ENDE aims at extracting this information for the characterization of the defect, i.e., at the solution of the arising “inverse problem”. To this end, one has to be able to determine the electromagnetic field distorted by a defect with known parameters affecting a given host structure, i.e., to solve the “forward problem”. Practically, this is performed via the mathematical modeling (based on the Maxwell's equations) and the numerical simulation of the studied ENDE configuration. Such simulators can provide fine precision, but at a price of computational cost. However, the solution of an inverse problem often requires several runs of these “expensive-to-evaluate” simulators, making the inversion procedure firmly demanding in terms of runtime and computational resources. To overcome this challenge, “surrogate modeling” offers an interesting alternative solution. A surrogate model imitates the true model, but as a rule, it is much less complex than the latter. A way to construct such surrogates is to perform a couple of simulations and then to approximate the model based on the obtained data. The choice of the “prototype” simulations is usually controlled by a sophisticated strategy, drawn from the tools of “design-of-experiments”. The goal of the research work presented in this Dissertation is the improvement of ENDE methods by using surrogate modeling and design-of-experiments techniques. Three self-sufficient approaches are discussed in detail: an inversion algorithm based on the optimization of an objective function and two methods for the generation of generic surrogate models, both involving a sequential sampling strategy. All approaches presented in this Dissertation are illustrated by examples drawn from eddy-current nondestructive testing.
39

Conception d'organes automobiles par optimisation topologique

Calvel, Sonia 05 October 2004 (has links) (PDF)
Dans l'industrie automobile, les réductions de masse permettent des économies de matières premières et des gains importants en performance. Cet allégement ne peut cependant pas se faire au détriment des exigences en matière de confort et de sécurité. Dans ce contexte, l'objectif de l'optimisation topologique est de déterminer, en amont des projets, les caractéristiques générales des pièces mécaniques. Les logiciels commerciaux actuels ne permettant pas l'intégration de toutes les contraintes déclinées sur les projets véhicules, notamment les contraintes vibro-accoustiques, nous proposons dans cette thèse une méthodologie et une solution logicielle associée, permettant la prise en compte d'un cahier des charges conforme à ceux utilisés chez Renault. Nous combinons pour cela la méthode d'optimisation topologique SIMP et l'algorithme d'optimisation numérique FSQP. Après avoir évalué notre méthode sur des cas de géométrie simple, nous montrons son potentiel sur le cas d'une face accessoires.
40

Diagnostic des systèmes aéronautiques et réglage automatique pour la comparaison de méthodes

Marzat, Julien 04 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire contribuent à la définition de méthodes pour la détection et le diagnostic de défauts affectant les systèmes aéronautiques. Un système représentatif sert de support d'étude, constitué du modèle non linéaire à six degrés de liberté d'un missile intercepteur, de ses capteurs et actionneurs ainsi que d'une boucle de guidage-pilotage. La première partie est consacrée au développement de deux méthodes de diagnostic exploitant l'information de commande en boucle fermée et les caractéristiques des modèles aéronautiques. La première méthode utilise les objectifs de commande induits par les lois de guidage-pilotage pour générer des résidus indiquant la présence de défauts. Ceci permet la détection des défauts sur les actionneurs et les capteurs, ainsi que leur localisation pour ces derniers. La deuxième méthode exploite la mesure de dérivées des variables d'état (via une centrale inertielle) pour estimer la valeur de la commande réalisée par les actionneurs, sans intégration du modèle non linéaire du système. Le diagnostic est alors effectué en comparant cette estimée avec la valeur désirée, ce qui permet la détection, la localisation et l'identification de défauts multiples sur les actionneurs.La seconde partie propose une méthodologie de réglage automatique des paramètres internes (les hyperparamètres) de méthodes de diagnostic. Ceci permet une comparaison plus objective entre les méthodes en évaluant la meilleure performance de chacune. Le réglage est vu comme un problème d'optimisation globale, la fonction à optimiser étant calculée via la simulation numérique (potentiellement coûteuse) de cas test. La méthodologie proposée est fondée sur un métamodèle de krigeage et une procédure itérative d'optimisation bayésienne, qui permettent d'aborder ce problème à faible coût de calcul. Un nouvel algorithme est proposé afin d'optimiser les hyperparamètres d'une façon robuste vis à vis de la variabilité des cas test pertinents.Mots clés : détection et diagnostic de défauts, guidage-pilotage, krigeage, minimax continu, optimisation globale, redondance analytique, réglage automatique, systèmes aéronautiques.

Page generated in 0.4995 seconds