• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Imagerie Isar à l'aide de l'algorithme génétique

Martin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.
312

Autostructuration des réseaux de neurones avec retards

Tardif, Patrice 12 April 2018 (has links)
Dans le but d'améliorer la compréhension du rôle de l'autostructuration des réseaux de neurones impliqués dans le système visuel du cerveau des mammifères, des extensions temporelles du modèles de Linsker (1986a-c, 1988) sont proposées au lecteur. Le modèle de Linsker est basé sur une corrélation de type Hebb et il permet l'émergence progressive de fonctions analogues à celles retrouvées dans le cortex visuel des mammifères au stade de l'ontogenèse. À titre d'exemple, il est observé l'émergence de cellules centre-poutour et de cellules sensibles aux orientations ainsi que la formation de colonnes alternées de dominance oculaire. Pour bien comprendre le modèle de Linsker, une première partie introduit les notions de physiologie nécessaires à sa compréhension. La seconde partie fait le constat de l'état de la recherche en matière d'autostructuration biologique du point de vue des outils mathématiques à notre disposition qui permettent l'analyse du modèle. Dans cette section, une revue de la littérature et quelques travaux complémentaires d'intérêt (MacKay et Miller, 1990a-b; Miller, 1994; Feng, 1993-1998) font aussi l'objet d'une discussion. Enfin, la troisième partie de cette dissertation a comme contribution scientifique originale de départager l'apport du retard dans une règle d'apprentissage de type Hebb par opposition au domaine spatial de Linsker. Par le biais de l'analyse mathématique et de simulations informatiques, deux cas de retard dans l'apprentissage sont étudiés : celui du retard dans la propagation des signaux et celui du retard dans la dynamique des poids synaptiques. Chacun de ces deux cas amène des conclusions différentes, à savoir : le premier cas donne lieu à des valeurs propres temporelles analogue au chapeau mexicain; le second cas permet d'observer des oscillations analogues à celles enregistrées sur la rétine des mammifères au stade de l'ontogenèse. Ces constats aideront à orienter les futures expérimentations en éclairant sur les mécanismes intrinsèques qui gouvernent ces processus biologiques.
313

Contribution à la modélisation et à l'optimisation des machines à flux transverse : application au cas de la machine à flux transverse "claw-pole" à stator hybride

Dehlinger, Nicolas 18 April 2018 (has links)
La grande densité de couple qui fait la réputation des machines à flux transverse (MFT) est attribuable à l’agencement particulier de ses circuits magnétiques et électriques. Cependant, cet agencement complique aussi l’étape de modélisation nécessaire à la conception de la machine. Des facteurs tels que le flux de fuite, la saturation et l’aspect tridimensionnel du flux expliquent en grande partie la difficulté à élaborer un modèle magnétique analytique précis pour la machine. Par ailleurs, l’emploi d’un modèle imprécis pour l’optimisation des caractéristiques de la machine peut conduire à des résultats erronés. Pour cette raison, la plupart des concepteurs fait appel à une modélisation numérique avec des outils de calcul des champs 3-D, coûteux en ressources informatiques, en temps de calcul et malheureusement peu adaptée au processus de conception itératif d’une machine électrique. La thèse défendue dans ce document propose une alternative : elle présente une approche de modélisation hybride, faisant appel à un modèle magnétique analytique assisté par le calcul des champs. L’approche est appliquée pour l’optimisation des performances d’une structure de MFT particulière : la MFT à griffes (ou "claw-pole") à stator hybride (MFTCPSH). Dans un premier temps, on montre comment des facteurs de corrections, dont les valeurs sont déterminées à partir de simulations par éléments finis 3-D, peuvent permettre de palier aux problèmes de précision d’un modèle analytique au cours de l’optimisation de la machine. Un exemple de maximisation du flux à vide d’une MFTCPSH démontre la rapidité, l’efficacité et la précision de l’approche proposée. Dans un second temps, le modèle hybride et la méthode d’optimisation sont développés pour maximiser le couple d’une MFTCPSH. En se basant sur le cahier des charges d’une application de traction électrique de type moteur-roue, il est montré comment le modèle et la méthode proposés permettent, en quelques heures seulement, de déterminer les dimensions géométriques optimales qui maximisent la densité de couple de la machine. / The high power and torque capabilities of Transverse Flux Machines (TFM) are well known. The particular arrangement of the TFM’s electric and magnetic circuits, which mainly explains its exceptional features, also greatly complicates the TFM design process. Building an accurate analytical magnetic model for a TFM is a hard task: factors as the leakage flux, magnetic saturation or 3-D flux paths greatly affect the model accuracy. As the use of an inaccurate model can lead to erroneous results, TFM designers extensively use numerical models, as 3-D finite element analysis (FEA). Despite their accuracy, such numerical tools are still time and resource consuming but also tricky to use for optimization purpose. This thesis proposes an alternative approach for the design of TFM: a hybrid model, based on analytical calculations, corrected with finite element results inside the optimization process. Such an approach is used in order to optimize the performances of a claw-pole TFM with hybrid stator (CTFMHS). This work first presents how FEA-derived correction factors can be inserted in the analytical model to improve the model accuracy, in the course of the design process. The principles and the effectiveness of the proposed approach are shown through an example of CTFMHS no-load flux maximization. The approach is then derived in order to maximize the torque density of the CTFMHS. Considering the specifications of an in-wheel motor application, it is shown how the developed approach can determine, in a few hours only, the optimal machine geometry maximizing its torque density.
314

Modélisation, conception et optimisation des machines sans encoches à aimants permanents à haute vitesse

Chebak, Ahmed. 19 April 2018 (has links)
Ce travail de recherche présente la mise au point d’une méthodologie de conception par optimisation globale des machines synchrones sans encoches à aimants permanents à haute vitesse utilisant des matériaux magnétiques composites doux (SMC) au stator et des frettes au rotor éventuellement conductrices. Cette méthodologie tient compte des différentes contraintes imposées par la haute vitesse, notamment les courants de Foucault induits dans les pièces massives, les pertes, l’alimentation en commutation électronique et les efforts mécaniques sur le rotor. Un outil de dimensionnement générique est développé pour différentes structures de machines sans encoches fonctionnant en moteur ou en générateur et alimentées par divers types de convertisseurs statiques à commutation de tension ou de courant. Il utilise un modèle de dimensionnement analytique basé sur la prédiction du champ magnétique 2D par une résolution harmonique des équations de Maxwell en magnétodynamique en tenant compte des courants de Foucault induits dans les parties conductrices. Ce modèle intègre un modèle électrique équivalent global de l’ensemble convertisseur-machine et un modèle détaillé de calcul des pertes validés par un calcul numérique du champ en 2D. Une validation expérimentale des pertes magnétiques dans le stator en SMC est effectuée. Le modèle de dimensionnement est associé à une procédure d’optimisation et à un mécanisme de correction itératif, basé sur le calcul numérique du champ en 3D, pour tenir compte des effets de bord sur les pertes par courants de Foucault dans le stator. Lorsque la machine est couplée à un convertisseur à commutation de courant, un autre mécanisme de correction, permettant la résolution du couplage fort entre la machine et son convertisseur, est utilisé. Les différents outils de modélisation et de conception réalisés sont utilisés pour dimensionner et comparer plusieurs topologies de machines sans encoches pour des cahiers des charges spécifiques. Différentes études de faisabilité et de sensibilité sont aussi effectuées. / This research work presents the development of a design methodology with global optimization of high-speed permanent-magnet slotless synchronous machines using soft magnetic composite materials (SMC) in the stator and retaining sleeves in the rotor that can be conductive. This methodology takes into account the different constraints imposed by the high speed such as the eddy currents induced in the massive parts, the losses, the converter-machine interactions and the mechanical stress in rotor. A generic design tool is developed for different slotless machines structures used as motors or generators and coupled to different kind of static power converters with voltage or current commutation. It uses a design model based on analytical prediction of the two-dimensional magnetic field by a harmonic resolution of Maxwell equations taking into account the eddy currents induced in the conductive parts. This model includes an equivalent electric model of the converter-machine system and a detailed losses calculation model validated by 2D finite element analysis. Experimental validation of magnetic losses in the SMC stator is also performed. The design model is associated to an optimization procedure and an iterative correction mechanism performed by 3D finite element simulations to take into account the influence of end-effects on the SMC stator eddy current losses. When the machine is coupled to a current static converter, another correction mechanism is used in order to resolve the strong coupling between the machine and its converter. The developed modeling and design tools are used to design and compare different slotless machines topologies for specific requirements. Various feasibility and sensitivity studies are also performed.
315

Simulation temps réel de convertisseurs de puissance à l'aide de FPGA

Le-Huy, Philippe 12 April 2018 (has links)
Ce mémoire présente l'étude de faisabilité d'un simulateur numérique temps réel de convertisseur de puissance à pas multiple utilisant un circuit Field Programmable Gâte Array. Un faible pas de calcul est utilisé pour augmenter la précision de la simulation de l'électronique de puissance et des autres éléments hautes fréquences. La partie sans commutation du réseau étudié est simulée avec un pas de 50 us sur un PowerPC 405D5. La partie rapide, le convertisseur et la modulation de la largeur d'impulsion, utilise un pas de calcul de 5 \xs et est simulée par un circuit FPGA dédié. Le tout est réalisé dans un Virtex II Pro VP30 de Xilinx. Les résultats obtenus avec ce simulateur sont présentés et validés à l'aide de SimPowerSystems (MATLAB). L'effet du découplage entre la partie 50 u,s et la partie 5 p,s est observé. L'ajout d'éléments réactifs aux points de découplage permet de réduire cet effet.
316

Calcul rapide de forces et de déformations mécaniques non-linéaires et visco-élastiques pour la simulation de chirurgie

Schwartz, Jean-Marc 11 April 2018 (has links)
Ce travail présente une méthode de calcul rapide de déformations et de forces mécaniques destinée à la simulation d'applications chirurgicales. La simulation de chirurgie vise à offrir aux praticiens des outils leur permettant de pratiquer des entraînements intensifs et de pouvoir planifier avec précision certaines interventions. La conception de tels simulateurs nécessite de disposer de modèles géométriques et mécaniques précis des organes du corps humain, et d'algorithmes de calcul suffisamment rapides pour être capable d'utiliser ces modèles dans des conditions de temps réel. La plupart des simulateurs existants utilisent des modèles mécaniques extrêmement simples, basés sur les lois de l'élasticité linéaire. Or de nombreux résultats de biomécanique indiquent que les tissus biologiques se comportent selon des lois beaucoup plus complexes, incluant des effets non-linéaires et visco-élastiques importants. Pour cette raison, nous avons développé une méthode permettant le calcul rapide de déformations et de forces incluant des effets mécaniques non-linéaires et visco-élastiques. Cette méthode utilise la théorie des éléments finis et a été conçue comme une extension de l'algorithme dit des masses-tenseurs pour l'élasticité linéaire. Son principe consiste à pré-calculer un certain nombre de tenseurs dépendant des caractéristiques géométriques et mécaniques de chaque élément fini, qui sont ensuite combinés dans la phase de simulation proprement dite. Notre modèle non-linéaire ne présage d'aucune forme particulière de loi mécanique, de sorte que la méthode proposée est suffisamment générique pour s'appliquer à une grande variété de comportements et d'objets. Après la description de l'algorithme, de ses performances en terme de temps de calcul et de ses conditions de stabilité numérique, nous démontrons que cette méthode est capable de reproduire avec précision le comportement mécanique d'un tissu biologique mou. Ce travail s'inscrivant plus spécifiquement dans le cadre du développement d'un système de simulation de la cryochirurgie du foie, nous avons étudié expérimentalement les propriétés du foie lors de sa perforation par une aiguille à biopsie. Le modèle de masses-tenseurs non-linéaire et visco-élastique construit à l'aide des paramètres expérimentaux a pu reproduire avec une bonne précision les propriétés observées. / This work presents a method for the fast computation of mechanical deformations and forces for the simulation of surgical applications. Surgery simulation aims at providing physicians with tools allowing extensive training and precise planning of given interventions. The design of such simulation systems requires accurate geometrical and mechanical models of the organs of the human body, as well as fast computation algorithms suitable for real-time conditions. Most existing simulation systems use very simple mechanical models, based on the laws of linear elasticity. Numerous biomechanical results yet indicate that biological tissues exhibit much more complex behaviour, including important non-linear and visco-elastic effects. For this reason, we developed a method allowing the fast computation of mechanical deformations and forces including non-linear and visco-elastic effects. This method uses finite element theory and has been constructed as an extension of the so-called tensor-mass algorithm for linear elasticity. It consists in pre-computing a set of tensors depending on the geometrical and mechanical properties of each finite element, which are later combined in the simulation part itself. Our non-linear model does not assume any particular form of mechanical law, so that the proposed method is generic enough to be applied to a wide variety of behaviours and objects. Following the description of the algorithm, of its performances in terms of computation time, and of its numerical stability conditions, we show that this method allows to reproduce the mechanical behaviour of a biological soft tissue with good precision. As this project is part of a broader effort aiming more specifically at developing a simulation system for liver cryosurgery, we experimentally characterized the properties of liver in perforation by a biopsy needle. The non-linear and visco-elastic tensor-mass model constructed from experimental parameters succeeded in accurately reproducing the observed properties.
317

Human motion tracking from movie sequences

Nguyen, Nhat Tan 18 April 2018 (has links)
Cette thèse présente un ensemble d'outils ou cadre de développement (paradigme) pour suivre le mouvement de personnages humains dans les films. Beaucoup d'applications en forte demande, telle que la surveillance pour la sécurité ou l'interaction homme-machine, profiteraient d'un système qui pourrait détecter et suivre automatiquement des humains. L'exécution de séquences de film réelles pose un défi particulier compte tenu de la non-rigidité du mouvement du corps humains, ainsi que l'influence qu'ont plusieurs facteurs sur son apparence. Parmi eux se trouvrent la différence dans la gamme de conditions d'acquisition, la variation de l'environnement et de l'illumination, le mouvement de caméra et le peu de connaissances a priori dans le positionnement de la caméra. En tant que complément à l'analyse du mouvement humain, ce système vise à aider son utilisateur à détecter de façon automatique le mouvement de la caméra, à diviser la séquence de film en petits segments appelés "prises de vue" et à extraire des informations du mouvement humain en présence d'un arrière-scène complexe. Pour atteindre cet objectif, une estimation précise du flux optique est employée. Un processus d'image par image peut identifier six différents mouvements de la caméra, incluant une camera statique, en utilisant des gabarits prédéterminés. Il peut ensuite fournir une base de données de mouvements de caméra pour la séquence du film. Ces données sont très utiles pour l'annotation, l'indexage et la recherche de séquences vidéos. De plus, une Mixture de Gaussiennes (MoG) dotée d'un espace de couleur RGB normalisé est utilisée pour soustraire un arrière-scène statique, qui permet d'éviter les effets d'ombres. Lors d'un mouvement de caméra, nous optons pour une technique appelée "codage de couleur" pour convertir les champs de vecteurs de mouvement en image colorée et appliquer la soustraction d'arrière-plan conventionnelle à cette image de flux optique de couleurs. Ceci dit, un système de suivi multicouches déployé dans deux directions (d'ordre chronologique et d'ordre anti-chronologique) est aussi décrit dans la thèse. Finalement, l'évaluation de la performance du système est réalisée sur plusieurs séquences extraites des films réels. Les séquences ont été entièrement analysées indépendamment par un observateur humain pour fournir une base de référence réelle sur les mouvements de caméra aussi bien que sur le mouvement humain dans les séquences vidéos. La comparaison entre les résultats et la base de référence indique une performance très prometteuse des approches proposées tant par l'analyse de films que par les applications de surveillance.
318

Mitigating error propagation of decision feedback equalization in boradband communications

Wang, Rujiang 13 April 2018 (has links)
L'interférence inter-symboles (ISI) représente un des obstacles majeurs à l'obtention de communications numériques fiables. Sauf pour le cas particulier des systèmes de signalisation à réponse partielle, le taux ISI doit être réduit le plus possible pour obtenir les communications numériques les plus fiables possibles. Pour les communications numériques à large bande , une des techniques les plus utilisées pour minimiser le taux ISI est l'égalisation. Les égalisateurs décisionnels à contre-réaction (DFE) sont parmi les structures les plus fréquemment utilisées, à cause de leur simplicité et de leur bonne performance. Cette thèse s'attaque au problème de la diminution de la propagation des erreurs dans un egalisateur décisionnel à contre réaction basé sur l'erreur quadratique moyenne (MMSE-DFE). Les DFE constituent une part importante des communications numériques modernes. De façon à réduire la propagation des erreurs dans les DFE, ce qui est de fait la limitation la plus importante de ceux-ci, un modèle basé sur l'erreur quadratique moyenne (MSE) est proposé. En s'appuyant sur ce nouveau modèle, les pondérations des filtres DFE, les éminceurs d'effacement (erasure slicer) et les éminceurs souples (soft slicer) peuvent être optimisés. Après une analyse théorique, on procède aux simulations numériques de ces modèles. Ces derniers sont relativement simples à implanter, ce qui contraste avec les modèles traditionnels basés sur les chaînes de Markov. Simultanément, on obtient une précision de prédiction qui se compare très avantageusement à celle obtenue avec les critères conventionnels basés sur l'erreur quadratique moyenne. On constate que l'éminceur souple optimal obtenu excède celui obtenu par l'optimisation conjointe DFE des pondérations et un éminceur à effacement. Les filtres de pondération DFE avec un éminceur optimal souple peuvent être considérés comme un sytème MMSE DFE vrai. La seconde contribution de ce travail de thèse consiste en une nouvelle forme de codage qui interagit avec la propagation des erreurs dans un DFE pour les modulations d'ordre supérieur. Les bits redondantes dans le diagramme d'éparpillement de la nouvelle modulation obtenue augmentent de façon dramatique l'immunité à la propagation des erreurs pour les symboles ayant le même niveau moyen d'énergie. De plus, la méthode proposée n'introduit pas de délais de décodage additionnels et la robustesse à la propagation des erreurs est néanmoins maintenue, même lorsque les pondérations de contre-réaction sont grandes par rapport à celles d'un DFE conventionnel. Globalement, cette thèse explore plusieurs moyens pour combattre la propagation des erreurs dans les DFE. Cette propagation est difficile à analyser surtout à cause de la non-linéarité de l'éminceur dans la boucle de contre réaction. Notre étude démontre que l'introduction de la propagation des erreurs dans le modèle du DFE-MSE conduit à une meilleure optimisation du DFE. L'approximation statistique du bruit et de l'ISI avant l'éminceur s'avère très appropriée pour la simulation numérique. Des connaissances additionnelles sur l'utilisation des DFE dans les canaux large bande ont également été obtenues. Un élément fondamental de nos travaux est la démonstration de l'exigence cyclique en transmission pour les égalisateurs à porteuse unique dans le domaine de la fréquence (SC-FDE). Bien que le traitement du signal en milieu fréquentiel soit largement accepté comme technique pour réduire les efforts de calcul requis, l'analyse théorique et la sirnulation révèlent qu'il y a également un autre avantage au traitement dans le domaine des fréquences. En effet, on montre que lorsque la réponse impulsionnelle du canal est plus longue que le préfixe cyclique du SC-FDE, un traitement dans le domaine fréquentiel amène une meilleure fidélité du signal qu'un traitement dans le temps. On a également regardé l'effet de la limitation de la largeur de bande pour un SC-FDE. Les résultats obtenus montrent qu'il existe une diversité de fréquences aux deux extrémités des secteurs des FFT. Ceci peut amener des idées directrices pour la réalisation physique des SC-FDE, particulièrement pour tenir compte du fait que les caractéristiques des secteurs de FFT requièrent des algorithmes différents pour un canal soumis à l'évanouissement.
319

Utilisation des sous-modèles comme filtres utilisés pour la commande et l'optimisation d'un atelier de lixiviation de l'or

Hallab, Soufiane 16 April 2018 (has links)
L'objectif de cette étude est de développer un simulateur d'un circuit de lixiviation de l'or afin d'évaluer les bénéfices de combiner la réconciliation de données, la commande et l'optimisation sur la performance technique et économique du circuit. Le modèle qu'utilise ce simulateur se base sur les bilans de conservation de matière des différentes espèces, tandis que les modèles de cinétique de dissolution du cyanure, de l'or solide et de l'oxygène sont empiriques. Des algorithmes de réconciliation de données ont été élaborés pour des régimes d'opération stationnaire et statique. La réconciliation de données stationnaire sert d'outil de filtrage pour alimenter les boucles de contrôle, alors que la réconciliation de données statique génère les données pour l'optimisation. La stratégie de commande développée fait appel à la rétroaction pour la régulation des concentrations de cyanure ainsi qu'à l'anticipation des perturbations comme les cyanicides. L'optimisation est effectuée en temps réel et calcule des consignes pour les contrôleurs en maximisant un critère économique. L'effet de la longueur de la fenêtre temporelle utilisée pour moyenner les données ainsi que la période d'actualisation des consignes sur la performance économique du circuit de lixiviation sont abordés. Le gain apporté par la combinaison de la réconciliation de données statique et de l'optimisation est aussi évalué.
320

Algorithmes évolutionnaires appliqués à la reconnaissance des formes et à la conception optique

Gagné, Christian 11 April 2018 (has links)
Les algorithmes évolutionnaires (AE) constituent une famille d’algorithmes inspirés de l’évolution naturelle. Ces algorithmes sont particulièrement utiles pour la résolution de problèmes où les algorithmes classiques d’optimisation, d’apprentissage ou de conception automatique sont incapables de produire des résultats satisfaisants. On propose dans cette thèse une approche méthodologique pour le développement de systèmes intelligents basés sur les AE. Cette approche méthodologique repose sur cinq principes : 1) utiliser des algorithmes et des représentations adaptés au problème ; 2) développer des hybrides entre des AE et des heuristiques du domaine d’application ; 3) tirer profit de l’optimisation évolutionnaire à plusieurs objectifs ; 4) faire de la co-évolution pour résoudre simultanément plusieurs sous-problèmes d’une application ou favoriser la robustesse ; et 5) utiliser un outil logiciel générique pour le développement rapide d’AE non conventionnels. Cette approche méthodologique est illustrée par quatre applications des AE à des problèmes difficiles. De plus, le cinquième principe est appuyé par l’étude sur la généricité dans les outils logiciels d’AE. Le développement d’applications complexes avec les AE exige l’utilisation d’un outil logiciel générique. Six critères sont proposés ici pour évaluer la généricité des outils d’AE. De nombreux outils logiciels d’AE sont disponibles dans la communauté, mais peu d’entre eux peuvent être véritablement qualifiés de génériques. En effet, une évaluation de quelques outils relativement populaires nous indique que seulement trois satisfont pleinement à tous ces critères, dont la framework d’AE Open BEAGLE, développée durant le doctorat. Open BEAGLE est organisé en trois couches logicielles principales, avec à la base les fondations orientées objet, sur lesquelles s’ajoute une framework gén érique comprenant les mécanismes généraux de l’outil, ainsi que plusieurs frameworks spécialisées qui implantent différentes saveurs d’AE. L’outil comporte également deux extensions servant à distribuer des calculs sur plusieurs ordinateurs et à visualiser des résultats. Ensuite, trois applications illustrent différentes approches d’utilisation des AE dans un contexte de reconnaissance des formes. Premièrement, on optimise des classifieurs basés sur la règle du plus proche voisin avec la sélection de prototypes par un algorithme génétique, simultanément à la construction de mesures de voisinage par programmation génétique (PG). À cette co-évolution coopérative à deux espèces, on ajoute la co-évolution compétitive d’une troisième espèce pour la sélection de données de test, afin d’améliorer la capacité de généralisation des solutions. La deuxième application consiste en l’ingénierie de représentations par PG pour la reconnaissance de caractères manuscrits. Cette ingénierie évolutionnaire s’effectue par un positionnement automatique de régions dans la fenêtre d’attention jumelé à la sélection d’ensembles flous pour l’extraction de caractéristiques. Cette application permet d’automatiser la recherche de représentations de caractères, opération généralement effectuée par des experts humains suite à un processus d’essais et erreurs. Pour la troisième application en reconnaissance des formes, on propose un système extensible pour la combinaison hiérarchique de classifieurs dans un arbre de décision flou. Dans ce système, la topologie des arbres est évoluée par PG alors que les paramètres numériques des unités de classement sont détermin és par des techniques d’apprentissage spécialisées. Le système est testé avec trois types simples d’unités de classement. Pour toutes ces applications en reconnaissance des formes, on utilise une mesure d’adéquation à deux objectifs afin de minimiser les erreurs de classement et la complexité des solutions. Une dernière application démontre l’efficacité des AE pour la conception de syst` emes de lentilles. On utilise des stratégies d’évolution auto-adaptatives hybridées avec une technique d’optimisation locale spécialisée pour la résolution de deux problèmes complexes de conception optique. Dans les deux cas, on démontre que les AE hybrides sont capables de générer des résultats comparables ou supérieurs à ceux produits par des experts humains. Ces résultats sont prometteurs dans la perspective d’une automatisation plus poussée de la conception optique. On présente également une expérience supplémentaire avec une mesure à deux objectifs servant à maximiser la qualité de l’image et à minimiser le coût du système de lentilles. / Evolutionary Algorithms (EA) encompass a family of robust search algorithms loosely inspired by natural evolution. These algorithms are particularly useful to solve problems for which classical algorithms of optimization, learning, or automatic design cannot produce good results. In this thesis, we propose a common methodological approach for the development of EA-based intelligent systems. This methodological approach is based on five principles : 1) to use algorithms and representations that are problem specific ; 2) to develop hybrids between EA and heuristics from the application field ; 3) to take advantage of multi-objective evolutionary optimization ; 4) to do co-evolution for the simultaneous resolution of several sub-problems of a common application and for promoting robustness ; and 5) to use generic software tools for rapid development of unconventional EA. This methodological approach is illustrated on four applications of EA to hard problems. Moreover, the fifth principle is explained in the study on genericity of EA software tools. The application of EA to complex problems requires the use of generic software tool, for which we propose six genericity criteria. Many EA software tools are available in the community, but only a few are really generic. Indeed, an evaluation of some popular tools tells us that only three respect all these criteria, of which the framework Open BEAGLE, developed during the Ph.D. Open BEAGLE is organized into three main software layers. The basic layer is made of the object oriented foundations, over which there is the generic framework layer, consisting of the general mechanisms of the tool, and then the final layer, containing several specialized frameworks implementing different EA flavors. The tool also includes two extensions, respectively to distribute the computations over many computers and to visualize results. Three applications illustrate different approaches for using EA in the context of pattern recognition. First, nearest neighbor classifiers are optimized, with the prototype selection using a genetic algorithm simultaneously to the Genetic Programming (GP) of neighborhood metrics. We add to this cooperative two species co-evolution a third coevolving competitive species for selecting test data in order to improve the generalization capability of solutions. A second application consists in designing representations with GP for handwritten character recognition. This evolutionary engineering is conducted with an automatic positioning of regions in a window of attention, combined with the selection of fuzzy sets for feature extraction. This application is used to automate character representation search, which is usually conducted by human experts with a trial and error process. For the third application in pattern recognition, we propose an extensible system for the hierarchical combination of classifiers into a fuzzy decision tree. In this system, the tree topology is evolved with GP while the numerical parameters of classification units are determined by specialized learning techniques. The system is tested with three simple types of classification units. All of these applications in pattern recognition have been implemented using a two-objective fitness measure in order to minimize classification errors and solutions complexity. The last application demonstrate the efficiency of EA for lens system design. Selfadaptative evolution strategies, hybridized with a specialized local optimisation technique, are used to solve two complex optical design problems. In both cases, the experiments demonstrate that hybridized EA are able to produce results that are comparable or better than those obtained by human experts. These results are encouraging from the standpoint of a fully automated optical design process. An additional experiment is also conducted with a two-objectives fitness measure that tries to maximize image quality while minimizing lens system cost.

Page generated in 0.0899 seconds