Spelling suggestions: "subject:"algorithme révolutionnaire"" "subject:"algorithme évolutionnaires""
1 |
Stratégies de calcul pour l'optimisation multiobjectif des structures compositesIrisarri, François-Xavier 23 January 2009 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre de la recherche de solutions composites innovantes pour l'allègement des structures aéronautiques. Les matériaux composites stratifiés offrent, de par leur architecture interne, de nouveaux degrés de liberté pour la conception et l'optimisation des structures. L'objectif est ici de proposer une méthodologie pour l'optimisation robuste des empilements, à l'échelle de petits sous-ensembles structuraux composites. La démarche est décomposée en trois éléments imbriqués : algorithme d'optimisation, stratégie de calcul et prise en compte des incertitudes. L'algorithme multiobjectif développé retourne au concepteur un ensemble de compromis optimaux. Il s'agit d'un algorithme évolutionnaire, dont l'efficacité est considérablement accrue, par rapport aux outils génériques, par l'introduction de considérations mécaniques multiéchelles spécifiques aux composites stratifiés. Il est en particulier adapté à la prise en compte des recommandations industrielles pour le choix des séquences d'empilements. Afin de réduire les coûts de calcul, des stratégies de calcul sont mises en oeuvre, articulant modélisations fines et approximation des modèles. Une méthode d'optimisation robuste est proposée, pour la prise en compte des incertitudes, méconnaissances ou erreurs potentielles. La première application proposée traite du flambement et post-flambement de panneaux raidis. La seconde application traite de l'optimisation des assemblages boulonnés composites, dont le calcul reste aujourd'hui problématique. Un modèle de la rupture en matage est développé, basé sur une approche progressive de la rupture du stratifié et de l'amorce des délaminages, avec d'excellents résultats par rapport à l'expérience. Ce modèle est appliqué pour l'optimisation d'un assemblage élémentaire à une fixation, et intégré dans une approche multiniveau pour le calcul d'une jonction complexe à plusieurs centaines de fixations.
|
2 |
Etude et Exploitation des Réseaux de Neutralité dans les Paysages Adaptatifs pour l'Optimisation DifficileVerel, Sébastien 12 December 2005 (has links) (PDF)
Le concept de paysage adaptatif a été introduit par S. Wright dans le domaine de la biologie de l'évolution dans les années 1930. Il est l'un des concepts pertinents pour modéliser l'évolution d'une population d'organismes. Dans le domaine de l'optimisation combinatoire par métaheuristiques, il est également utilisé et <br />permet de lier une description géométrique d'un problème d'optimisation avec la dynamique des algorithmes de recherche.<br />Deux géométries de paysage correspondant à deux dynamiques d'algorithme ont été principalement étudiées. La géométrie de paysage multimodale est liée à la présence d'optima locaux,<br />où la dynamique est une succession de marches adaptatives vers de meilleures solutions et de dégradations de performance. La géométrie des paysages adaptatifs neutres, mise en avant par la théorie de la neutralité en évolution moléculaire de Motoo Kimura,<br />est liée à la présence de plateaux ; la dynamique se caractérise alors par une dérive aléatoire entrecoupée de rares découvertes de solutions plus performantes. Cette thèse se propose d'approfondir <br />l'étude des paysages neutres dans le contexte de l'optimisation et de proposer de nouvelles métaheuristiques adaptées à ce type de paysages.<br /><br />La thèse se compose de quatre chapitres. Dans un premier chapitre,<br />nous présentons les principaux résultats concernant les paysages adaptatifs et plus particulièrement les paysages adaptatifs neutres.<br />Dans un deuxième chapitre, nous développons le concept d'ensemble de neutralité en introduisant la notion de 'nuage adaptatif' qui permet d'étudier la corrélation de performance entre solutions voisines et nous l'appliquons à la classe des paysages 'embarqués' qui regroupe les paysages NK et Max-SAT. Dans un troisième chapitre, nous résumons l'ensemble des mesures relatives aux réseaux de neutralité et nous proposons une nouvelle mesure. Une étude expérimentale est réalisée sur trois familles de paysages pour lesquelles la neutralité est ajustable et deux problèmes classiques de la littérature. Enfin, un nouvel algorithme de recherche adapté aux paysages neutres lié à la nouvelle mesure est proposé et évalué sur différents paysages neutres. Nous réalisons l'étude du paysage adaptatif massivement neutre<br />issu du problème d'apprentissage de la règle d'un automate cellulaire réalisant la tâche de classification par la densité, afin d'en améliorer les métaheuristiques connues existantes.
|
3 |
Adaptation de la métaheuristique des colonies de fourmis pour l'optimisation difficile en variables continues. Application en génie biologique et médical.Dréo, Johann 13 December 2003 (has links) (PDF)
Les métaheuristiques de colonies de fourmis s'inspirent des comportements collectifs observés chez les fourmis pour résoudre des problèmes d'optimisation difficile.<br /><br />La première approche pour concevoir des métaheuristiques d'optimisation continue en suivant cette métaphore consiste à créer un système multi-agent. Nous proposons ainsi un algorithme de "colonies de fourmis interagissantes" (CIAC). La deuxième approche décrit ces métaheuristiques comme des méthodes manipulant un échantillonnage d'une distribution de probabilité. Nous proposons ainsi un algorithme "à estimation de distribution" (CHEDA).<br /><br />En accord avec le concept de programmation à mémoire adaptative, nos algorithmes font l'objet d'une hybridation avec une recherche locale de Nelder-Mead (HCIAC). Nous avons ensuite adapté cette méthode à des problèmes continus dynamiques (DHCIAC), pour lesquels nous proposons également un nouveau jeu de test cohérent.<br /><br />Nos algorithmes sont enfin appliqués dans le cadre de l'automatisation du suivi des lésions de l'oeil.
|
4 |
Synthèse croisée de régulateurs et d'observateurs pour le contrôle robuste de la machine synchrone / Cross-synthesis of controler and observer parameters for robust control of synchronous driveCarrière, Sébastien 28 May 2010 (has links)
Cette étude se concentre sur la synthèse de lois de commande de servo-entraînements accouplés à une charge flexible à paramètres incertains avec l’unique mesure de la position du moteur. La loi de commande a pour but de minimiser les effets de ces variations tout en gardant la maîtrise d’un cahier des charges de type industriel (temps de réponse, dépassement, simplicité d’implantation et de synthèse). De ce fait, un contrôleur et un observateur sont implantés. Un contrôleur de type retour d’état avec une minimisation d’un critère linéaire quadratique assurant un placement du pôle dominant est associé à un observateur de type Kalman. Ces deux structures utilisent des méthodologies classiques de synthèse : placement de pôles et choix de pondération des matrices de Kalman. Pour ce dernier, deux stratégies sont abordées. La première utilise les matrices de pondération diagonale standard. De nombreux degrés de liberté sont disponibles et donnent de bons résultats. La seconde défini la matrice des bruits d’état avec la variation de la matrice dynamique du système. Le nombre de degrés de liberté est réduit, les résultats restent similaires à la stratégie précédente, mais la synthèse est simplifiée. Ceci permet d’obtenir une méthode n’exigeant que peu d’investissement théorique de la part d’un ingénieur mais non robuste. Pour ceci, la méthode de micro-analyse caractérisant la stabilité robuste est appliquée en parallèle à un algorithme évolutionnaire autorisant une synthèse, plus rapide et plus précise qu’un opérateur humain. Cette méthode complète permet de voir les avantages d’une synthèse croisée de l’observateur et du correcteur au lieu d’une synthèse séparée. En effet, le placement optimal des dynamiques de commande et d’observation dans le cadre des systèmes à paramètres variants ne suit plus une stratégie classique découplée. Ici, les dynamiques se retrouvent couplées voire meme inversées (dynamique de la commande inférieure à celle de l’observateur). Des résultats expérimentaux corroborent les simulations et permettent d’expliquer les effets des observateurs et régulateurs sur le comportement du système. / This thesis is performing a study on the law control synthesis for PMSM direct driving to a load having its mechanical parameters variant. Furthermore, only the motor position is sensored. The control law aim is to minimize the eects of these variations while keeping the performance inside industrial specifications (response time at 5%, overshoot, implementation and synthesis simplicity). As a result, an observer is programmed jointly with a controller. A state feedback controller deduced from a linear quadratic minimization is associated with a Kalman observer. These both structures employ standard method definitions : poles placement and arbitrary weight of Kalman matrices choice. Two definitions strategies are employed for the observer. The first is the classical arbitrary weights choice. A lot of degrees of freedom are accessible and allow this observer to impose a good behaviour to the system. The second defines the system dynamic matrix variation as the state space noise matrix. The number of degrees of freedom decreases dramatically. However the behaviour is kept as well as the previous case. This method is then easy to understand for an engineer, gives good result but non robust in an automatic sense. Consequently, an automatic study on robustness, the micro- analysis, is added to this control definition for theoretically checking. In parallel with the study robustness, an evolutionnary algorithm leads to a quicker and more accurate synthesis than a human operator. Indeed, in the case of systems having variant parameters, the optimal dynamics choice for the controller and the observer is not following the classical way. The dynamics are coupled or even mirrored ( the controller dynamic is slower than the observer one). At the end, experimental results allow to understand the way that observer or controller operate on the system.
|
5 |
Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteursLangouët, Hoël 28 June 2011 (has links) (PDF)
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
|
6 |
Traitement de la mission et des variables environnementales et intégration au processus de conception systémiqueJaafar, A. 28 September 2011 (has links) (PDF)
Ce travail présente une démarche méthodologique visant le " traitement de profils " de " mission " et plus généralement de " variables environnementales " (mission, gisement, conditions aux limites), démarche constituant la phase amont essentielle d‟un processus de conception systémique. La " classification " et la " synthèse " des profils relatifs aux variables d‟environnement du système constituent en effet une première étape inévitable permettant de garantir, dans une large mesure, la qualité du dispositif conçu et ce à condition de se baser sur des " indicateurs " pertinents au sens des critères et contraintes de conception. Cette approche s‟inscrit donc comme un outil d‟aide à la décision dans un contexte de conception systémique. Nous mettons en particulier l‟accent dans cette thèse sur l‟apport de notre approche dans le contexte de la conception par optimisation qui, nécessitant un grand nombre d‟itérations (évaluation de solutions de conception), exige l‟utilisation de " profils compacts " au niveau informationnel (temps, fréquence,...). Nous proposons dans une première phase d‟étude, une démarche de " classification " et de " segmentation " des profils basée sur des critères de partitionnement. Cette étape permet de guider le concepteur vers le choix du nombre de dispositifs à concevoir pour sectionner les produits créés dans une gamme. Dans une deuxième phase d‟étude, nous proposons un processus de " synthèse de profil compact ", représentatif des données relatives aux variables environnementales étudiées et dont les indicateurs de caractérisation correspondent aux caractéristiques de référence des données réelles. Ce signal de durée réduite est obtenu par la résolution d‟un problème inverse à l‟aide d‟un algorithme évolutionnaire en agrégeant des motifs élémentaires paramétrés (sinusoïde, segments, sinus cardinaux). Ce processus de " synthèse compacte " est appliqué ensuite sur des exemples de profils de missions ferroviaires puis sur des gisements éoliens (vitesse du vent) associés à la conception de chaînes éoliennes. Nous prouvons enfin que la démarche de synthèse de profil représentatif et compact accroît notablement l'efficacité de l‟optimisation en minimisant le coût de calcul facilitant dès lors une approche de conception par optimisation.
|
7 |
Isomorphisme Inexact de Graphes par Optimisation ÉvolutionnaireBärecke, Thomas 22 October 2009 (has links) (PDF)
L'isomorphisme inexact de graphes est un problème crucial pour la définition d'une distance entre graphes, préalable nécessaire à une multitude d'applications allant de l'analyse d'images à des applications biomédicales en passant par la reconnaissance optique de caractères. Ce problème est encore plus complexe que celui de l'isomorphisme exact. Alors que ce dernier est un problème de décision de complexité au moins de classe P et qui ne s'applique qu'à des graphes exactement identiques, l'isomorphisme inexact est un problème combinatoire de complexité de classe NP qui permet de prendre en compte des perturbations dues au bruit, qui apparaissent fréquemment dans les applications réelles. Dans ce cadre, nous choisissons d'étudier une solution basée sur les algorithmes génétiques pouvant être appliquée à l'isomorphisme exact et inexact. Nous proposons des opérateurs de croisement généraux pour tout problème représenté par un codage de permutation, ainsi que des opérateurs spécifiques à l'isomorphisme de graphes qui exploitent une heuristique gloutonne. Nous réalisons une étude exhaustive pour comparer ces opérateurs avec les opérateurs existants, soulignant leurs propriétés, avantages et inconvénients respectifs. Nous étudions par ailleurs plusieurs pistes d'amélioration de l'algorithme, en théorie ou en pratique, considérant successivement les objectifs d'accélération de l'exécution, d'augmentation de la précision et de garantie de résultat optimal. Nous proposons pour cela de combiner l'approche proposée avec d'autres techniques telles que des heuristiques générales comme la recherche locale, des heuristiques dédiées comme l'algorithme A*, et des outils pratiques comme la parallélisation. Ces travaux conduisent à la définition d'une méthode générique pour la résolution de tous les problèmes d'isomorphismes de graphes, qu'il s'agisse d'isomorphismes exact ou inexact, d'isomorphismes de graphes de même taille ou d'isomorphismes de sous-graphes. Nous illustrons enfin la validité de cette solution générale par trois applications concrètes issues de domaines différents, la recherche d'images et la chimie, qui présentent chacune des caractéristiques spécifiques, utilisant des graphes attribués ou non, soumis aux perturbations plutôt structurelles ou au niveau d'attributs.
|
8 |
Techniques d'optimisation pour la fouille de donnéesFrancisci, Dominique 11 March 2004 (has links) (PDF)
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
|
9 |
Méthodes non-paramétriques pour la prévision d'intervalles avec haut niveau de confiance : application à la prévision de trajectoires d'avions / Non-parametric high confidence interval prediction : application to aircraft trajectory predictionGhasemi Hamed, Mohammad 20 February 2014 (has links)
Le trafic aérien en Europe représente environ 30 000 vols quotidiens actuellement. Selon les prévisions de l’organisme Eurocontrol, ce trafic devrait croître de 70% d’ici l’année 2020 pour atteindre 50 000 vols quotidiens. L’espace aérien, découpé en zones géographiques appelées secteurs de contrôle, atteindra bientôt son niveau de saturation vis-à-vis des méthodes actuelles de planification et de contrôle. Afin d’augmenter la quantité de trafic que peut absorber le système, il est nécessaire de diminuer la charge de travail des contrôleurs aériens en les aidant dans leur tâche de séparation des avions. En se fondant sur les demandes de plans de vol des compagnies aériennes, nous proposons une méthode de planification des trajectoires en 4D permettant de présenter au contrôleur un trafic dont la plupart des conflits auront été évités en avance. Cette planification s’établit en deux étapes successives, ayant chacune un unique degré de liberté : une allocation de niveaux de vol permettant la résolution des conflits en croisière puis une allocation d’heures de décollage permettant de résoudre les conflits restants. Nous présentons des modèles pour ces deux problèmes d’optimisation fortement combinatoires, que nous résolvons en utilisant la programmation par contraintes ou les algorithmes évolutionnaires, ainsi que des techniques permettant de prendre en compte des incertitudes sur les heures de décollage ou le suivi de trajectoire. Les simulations conduites sur l’espace aérien français mènent à des situations où tous les conflits sont évités, avec des retards alloués de l’ordre d’une minute en moyenne (80 à 90 minutes pour le vol le plus retardé) et un écart par rapport à l’altitude optimale limité à un niveau de vol pour la quasi totalité des vols. La prise en compte d’incertitudes de manière statique dégrade fortement ces solutions peu robustes, mais nous proposons un modèle dynamique utilisant une fenêtre glissante susceptible de prendre en compte des incertitudes de quelques minutes avec un impact réduit sur le coût de l’allocation. / Air traffic in Europe represents about 30,000 flights each day and forecasts from Eurocontrol predict a growth of 70% by 2020 (50,000 flights per day). The airspace, made up of numerous control sectors, will soon be saturated given the current planification and control methods. In order to make the system able to cope with the predicted traffic growth, the air traffic controllers workload has to be reduced by automated systems that help them handle the aircraft separation task. Based on the traffic demand by airlines, this study proposes a new planning method for 4D trajectories that provides conflict-free traffic to the controller. This planning method consists of two successive steps, each handling a unique flight parameter : a flight level allocation phase followed by a ground holding scheme.We present constraint programming models and an evolutionary algorithm to solve these large scale combinatorial optimization problems, as well as techniques for improving the robustness of the model by handling uncertainties of takeoff times and trajectory prediction. Simulations carried out over the French airspace successfully solved all conflicts, with a mean of one minute allocated delay (80 to 90 minutes for the most delayed flight) and a discrepancy from optimal altitude of one flight level for most of the flights. Handling uncertainties with a static method leads to a dramatic increase in the cost of the previous non-robust solutions. However, we propose a dynamic model to deal with this matter, based on a sliding time horizon, which is likely to be able to cope with a few minutes of uncertainty with reasonable impact on the cost of the solutions.
|
10 |
Méthode collaborative de segmentation et classification d'objets à partir d'images de télédétection à très haute résolution spatiale / Collaborative method of segmentation and classification of objects from remote sensing images with very high spatial resolutionSellaouti, Aymen 16 September 2014 (has links)
Avec l’avènement des images satellitaires à très haute résolution, les approches pixelliques ne donnant plus entière satisfaction ont été remplacées par les approches objets. Cependant, ces approches restent tributaires de la première étape qui permet le passage du pixel vers l’objet, à savoir l’étape de construction. L’architecture séquentielle de ces approches fait que les erreurs de l’étape de construction se répercutent sur l’étape d’identification. Il devient donc primordial de passer de cette architecture séquentielle vers une architecture itérative permettant la collaboration entre les étapes de construction et d’identification. Dans le cadre de cette thèse, nous nous sommes concentrés sur l’étude de l’étape de construction(i.e., la segmentation) comme base de départ pour les approches proposées. Nous avons proposé deux approches objets basées sur les techniques de segmentation les plus propices à la collaboration, à savoir les techniques régions et les techniques collaboratives région/contour. La première approche proposée se base sur une croissance sémantique hiérarchique. Elle permet de combiner les algorithmes de croissance de régions et les approches d’analyse d’images orientées objets. La croissance étant spécifique à la classe du germe de départ, nous avons proposé deux adaptations de l’approche sur les objets les plus rencontrés dans le contexte urbain, à savoir, les routes et les bâtiments. La deuxième approche utilise un algorithme évolutionnaire local permettant un paramétrage local des différents agents régions et contours évoluant au sein d’un système multi-agents. / Object based image analysis is a rising research area in remote sensing. However, existing approaches heavily rely on the object construction process, mainly due to the lack of interaction between the two steps, i.e., Construction and identification.In this thesis, we focused on the study of the construction phase (i.e., segmentation) as a basis for the proposed approaches. The first proposed approach is based on a hierarchical semantic growth. This approach allows merging region-growing algorithms and Object Based Image Analysis approaches. Due to the dependency of the semantic growth on the seed class, we propose two adaptations of the approach on the most used class in the urban context, i.e., roadsand buildings. The second approach benefits of both multi-agent systems and genetic algorithms characteristics. It overcomes the threshold’s dependency of the proposed cooperative multi-agent system between an edge approach and a region approach. The genetic algorithm is used to automatically find building extraction parameters for each agent based on expert knowledge. The proposed approaches have been validated on a very high-resolution image of the urban area of Strasbourg.
|
Page generated in 0.0854 seconds