Spelling suggestions: "subject:"doptimisation globale"" "subject:"doptimisation lobale""
21 |
Gestion énergétique des véhicules hybrides: de la simulation à la commande temps réel.Kermani, Saida 17 September 2009 (has links) (PDF)
Le problème de la gestion énergétique des véhicules hybrides consiste essentiellement à développer des algorithmes appelés : stratégies de commande, dont le rôle est de choisir à chaque instant la meilleure répartition de puissance entre les différentes sources d'énergie d'une manière à minimiser la consommation de carburant et/ou les émissions de polluants. Le problème est formulé comme un problème de commande optimale qui, en connaissant a priori le profil de vitesse du véhicule, vise à trouver la répartition optimale de puissance en minimisant la consommation de carburant, sous contraintes. Il s'agit ici des algorithmes dits d'optimisation globale. Bien que ces deniers soient limités à la simulation, ils permettent, néanmoins de déduire des stratégies de commande « sous-optimales » applicables en ligne. <br />L'objectif de la thèse est d'élaborer des lois de gestion d'énergie applicable en ligne. Ceci revient à « prédire » le profil de vitesse du véhicule permettant d'estimer la demande de puissance du conducteur. A cette fin, Deux stratégies de commande temps réel basées sur l'algorithme d'optimisation globale ont été proposées. La première concerne le cas particulier d'un véhicule circulant sur le même trajet physique, et la seconde est une généralisation à tout types de parcours. Enfin, une mise en œuvre des stratégies temps réel proposées sur un banc moteur a permis de valider les résultats de simulation obtenus et d'évaluer le gain d'hybridation par rapport à un véhicule conventionnel équivalent.
|
22 |
Optimisation de fonctions coûteuses<br />Modèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielleVillemonteix, Julien 10 December 2008 (has links) (PDF)
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier<br />en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins<br />de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.<br />Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation<br />tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de<br />bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
|
23 |
Adaptation de la métaheuristique des colonies de fourmis pour l'optimisation difficile en variables continues. Application en génie biologique et médical.Dréo, Johann 13 December 2003 (has links) (PDF)
Les métaheuristiques de colonies de fourmis s'inspirent des comportements collectifs observés chez les fourmis pour résoudre des problèmes d'optimisation difficile.<br /><br />La première approche pour concevoir des métaheuristiques d'optimisation continue en suivant cette métaphore consiste à créer un système multi-agent. Nous proposons ainsi un algorithme de "colonies de fourmis interagissantes" (CIAC). La deuxième approche décrit ces métaheuristiques comme des méthodes manipulant un échantillonnage d'une distribution de probabilité. Nous proposons ainsi un algorithme "à estimation de distribution" (CHEDA).<br /><br />En accord avec le concept de programmation à mémoire adaptative, nos algorithmes font l'objet d'une hybridation avec une recherche locale de Nelder-Mead (HCIAC). Nous avons ensuite adapté cette méthode à des problèmes continus dynamiques (DHCIAC), pour lesquels nous proposons également un nouveau jeu de test cohérent.<br /><br />Nos algorithmes sont enfin appliqués dans le cadre de l'automatisation du suivi des lésions de l'oeil.
|
24 |
ETUDE DE LA STABILITE AUX PETITES PERTURBATIONS DANS LES GRANDS RESEAUX ELECTRIQUES : OPTIMISATION DE LA REGULATION PAR UNE METHODE METAHEURISTIQUEAlkhatib, Hasan 05 December 2008 (has links) (PDF)
Depuis une vingtaine d'années, les grands réseaux électriques se trouvent obligés de fonctionner à pleine puissance et souvent aux limites de la stabilité. L'amélioration de la stabilité aux petites perturbations, en particulier l'amortissement des oscillations interrégionales, est donc devenue un objectif prioritaire. Les interactions entre les générateurs de différentes régions et les régulateurs utilisés nécessitent une optimisation globale de leurs performances : c'est le meilleur moyen pour assurer le comportement optimal de l'ensemble. L'objectif de ce travail est d'assurer un amortissement maximum, aussi bien des modes interrégionaux que des modes locaux, à l'aide des stabilisateurs de puissance (PSS) généralement utilisés pour l'amortissement des modes électromécaniques locaux. Pour ce faire, nous avons développé une méthode d'optimisation globale basée sur les algorithmes génétiques et une fonction multiobjectif déterminée à partir de l'analyse des valeurs propres du système. Nous avons analysé l'influence de l'augmentation progressive du nombre de variables à optimiser simultanément (paramètres, emplacement et nombre des PSSs). La méthode que nous proposons permet un réglage optimal des PSSs avec le meilleur emplacement possible et un nombre réduit de PSSs. Nous avons proposé en outre une nouvelle méthode d'optimisation utilisant des contraintes dynamiques adaptatives de l'espace de recherche afin d'améliorer les performances et la rapidité de convergence de cet algorithme. Les performances de ces méthodes d'optimisation ont été évaluées sur le réseau multimachines interconnecté New England / New York par analyse des valeurs propres du modèle linéaire du système et simulations temporelles du modèle non-linéaire originel.
|
25 |
Planification du placement de caméras pour des mesures 3D de précisionOlague, Gustavo 26 October 1998 (has links) (PDF)
Les mesures tridimensionnelles peuvent être obtenues à partir de plusieurs images par la méthode de triangulation. Ce travail étudie le problème du placement des caméras de façon a obtenir une erreur minimale lors des mesures tridimensionnelles. En photogrammétrie, on parlera du concept du réseau de caméras. Nous poserons le problème en termes d'optimisation et nous le diviserons en deux parties: 1) Une partie analytique dédiée à l'analyse de l'erreur de propagation d'où découlera un critère. 2) Un processus global d'optimisation minimisera ce critère. De ce coté-là, l'approche consiste en une analyse d'incertitude appliquée au processus de reconstruction d'où une matrice de covariance sera calculée. Cette matrice représente l'incertitude de la détection pour lequel le critère est dérivé. Par ailleurs, l'optimisation a des aspects discontinus essentiellement dû à l'inobservabilité des points. Ce facteur va nous amener à utiliser un processus d'optimisation combinatoire que nous avons résolu en utilisant un algorithme génétique multicellulaire. Des résultats expérimentaux sont inclus pour illustrer l'efficacité et la rapidité de la solution.
|
26 |
Vision 3D multi-images : contribution à l'obtention de solutions globales par optimisation polynomiale et théorie des momentsBugarin, Florian 05 October 2012 (has links) (PDF)
L'objectif général de cette thèse est d'appliquer une méthode d'optimisation polynomiale basée sur la théorie des moments à certains problèmes de vision artificielle. Ces problèmes sont en général non convexes et classiquement résolus à l'aide de méthodes d'optimisation locale. Ces techniques ne convergent généralement pas vers le minimum global et nécessitent de fournir une estimée initiale proche de la solution exacte. Les méthodes d'optimisation globale permettent d'éviter ces inconvénients. L'optimisation polynomiale basée sur la théorie des moments présente en outre l'avantage de prendre en compte des contraintes. Dans cette thèse nous étendrons cette méthode aux problèmes de minimisation d'une somme d'un grand nombre de fractions rationnelles. De plus, sous certaines hypothèses de "faible couplage" ou de "parcimonie" des variables du problème, nous montrerons qu'il est possible de considérer un nombre important de variables tout en conservant des temps de calcul raisonnables. Enfin nous appliquerons les méthodes proposées aux problèmes de vision par ordinateur suivants : minimisation des distorsions projectives induites par le processus de rectification d'images, estimation de la matrice fondamentale, reconstruction 3D multi-vues avec et sans distorsions radiales.
|
27 |
MULTIPLES MÉTAMODÈLES POUR L'APPROXIMATION ET L'OPTIMISATION DE FONCTIONS NUMÉRIQUES MULTIVARIABLESGinsbourger, David 26 March 2009 (has links) (PDF)
Cette thèse s'inscrit dans la thématique de planification d'expériences numériques. Elle porte plus précisément sur l'optimisation de simulateurs numériques coûteux à évaluer, par des stratégies d'échantillonnage basées sur des représentations simplifiées du simulateur, les metamodèles. Une fois choisi un metamodèle parmi les familles existantes (polynômes, splines, modèles additifs, Krigeage, réseaux de neurones), on estime les paramètres du metamodèle. On dispose alors d'une représentation simplifiée du simulateur, que l'on pourra faire évoluer en fonction des informations apportées par de nouvelles évaluations. Etant donné qu'il est difficile de savoir a priori quel sera le type de metamodèle capable de guider au mieux un algorithme d'optimisation, une des motivations de ce travail est d'examiner comment une construction ad hoc de la structure du metamodèle, voire la prise en compte de plusieurs metamodèles, peuvent améliorer les méthodes d'approximation et les stratégies d'optimisation globale actuellement employées. Cela soulève à la fois des questions mathématiques et statistiques de sélection de modèle (quelles familles de métamodèles considérer ? Comment estimer les termes de covariance et/ou de tendance d'un métamodèle de Krigeage, et selon quels critères les évaluer ? Comment prendre en compte certaines formes d'instationnarité dans la covariance de Krigeage que sont les symétries et la présence de bruits d'observation hétérogènes ?), de combinaison de modèles (Une fois un ensemble de metamodèles choisis, comment agrège-ton les pseudo-informations qu'ils nous apportent ?), et de définition de critères décisionnels pour guider les évaluations au sein d'algorithmes d'optimisation (Comment paralléliser EGO ou des procédures similaires d'exploration sur base de Krigeage ?).
|
28 |
Imagerie à travers la turbulence : mesure inverse du front d'onde et centrage optimalRondeau, Xavier 12 November 2007 (has links) (PDF)
L'imagerie à la limite de diffraction des télescopes de grand diamètre constitue un enjeu majeur pour l'astrophysique moderne. Mais il faut compenser les effets délétères de la turbulence sur la phase de l'onde électromagnétique. Je développe un algorithme d'optimisation globale pour le problème inverse non-linéaire de reconstruction de front d'onde à partir d'une image tavelée, et je montre le bénéfice de la diversité polychromatique (images à différentes longueurs d'onde) pour gérer plus de degrés de liberté. Pour l'Etoile Laser Polychromatique, je montre qu'estimer conjointement tout le front d'onde à partir de l'image améliore considérablement l'estimation de son déplacement par rapport au barycentre. Je développe aussi une méthode d'interspectre bi-chromatique pour estimer le déplacement lorsque l'étoile est résolue. Je présente enfin une approche inverse pour traiter en temps-réel les données d'un détecteur à comptage de photons (gain 4 en résolution spatiale).
|
29 |
Application of Design-of-Experiment Methods and Surrogate Models in Electromagnetic Nondestructive EvaluationBilicz, Sandor 30 May 2011 (has links) (PDF)
Le contrôle non destructif électromagnétique (CNDE) est appliqué dans des domaines variés pour l'exploration de défauts cachés affectant des structures. De façon générale, le principe peut se poser en ces termes : un objet inconnu perturbe un milieu hôte donné et illuminé par un signal électromagnétique connu, et la réponse est mesurée sur un ou plusieurs récepteurs de positions connues. Cette réponse contient des informations sur les paramètres électromagnétiques et géométriques des objets recherchés et toute la difficulté du problème traité ici consiste à extraire ces informations du signal obtenu. Plus connu sous le nom de " problèmes inverses ", ces travaux s'appuient sur une résolution appropriée des équations de Maxwell. Au " problème inverse " est souvent associé le " problème direct " complémentaire, qui consiste à déterminer le champ électromagnétique perturbé connaissant l'ensemble des paramètres géométriques et électromagnétiques de la configuration, défaut inclus. En pratique, cela est effectué via une modélisation mathématique et des méthodes numériques permettant la résolution numérique de tels problèmes. Les simulateurs correspondants sont capables de fournir une grande précision sur les résultats mais à un coût numérique important. Sachant que la résolution d'un problème inverse exige souvent un grand nombre de résolution de problèmes directs successifs, cela rend l'inversion très exigeante en termes de temps de calcul et de ressources informatiques. Pour surmonter ces challenges, les " modèles de substitution " qui imitent le modèle exact peuvent être une solution alternative intéressante. Une manière de construire de tels modèles de substitution est d'effectuer un certain nombre de simulations exactes et puis d'approximer le modèle en se basant sur les données obtenues. Le choix des simulations (" prototypes ") est normalement contrôlé par une stratégie tirée des outils de méthodes de " plans d'expérience numérique ". Dans cette thèse, l'utilisation des techniques de modélisation de substitution et de plans d'expérience numérique dans le cadre d'applications en CNDE est examinée. Trois approches indépendantes sont présentées en détail : une méthode d'inversion basée sur l'optimisation d'une fonction objectif et deux approches plus générales pour construire des modèles de substitution en utilisant des échantillonnages adaptatifs. Les approches proposées dans le cadre de cette thèse sont appliquées sur des exemples en CNDE par courants de Foucault
|
30 |
Optimisation Globale basée sur l'Analyse d'Intervalles: Relaxation Affine et Limitation de la MémoireNinin, Jordan 08 December 2010 (has links) (PDF)
Depuis une vingtaine d'années, la résolution de problèmes d'optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l'analyse d'intervalles ont su trouver leur place, car ils ont l'avantage de prouver l'optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu'à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c'est pourquoi il est toujours nécessaire d'améliorer les techniques actuelles. - Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l'arithmétique d'intervalles et l'arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. - Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l'arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d'inégalité que les problèmes originaux, les contraintes d'égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d'infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l'efficacité de cette approche. - Un autre aspect de cette thèse a été l'étude d'une extension de ce type d'algorithmes en introduisant une limite sur mémoire disponible. L'idée principale de cette approche est de proposer un processus inverse de l'optimisation par le biais d'un principe métaheuristique: plutôt que d'améliorer des solutions locales à l'aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d'une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. - Enfin, pour finir l'étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu'à la résolution d'un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l'intérêt de ce type d'algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique.
|
Page generated in 0.107 seconds