En robotique mobile, les techniques d'apprentissage qui utilisent la vision artificielle représentent le plus souvent l'image par un ensemble de descripteurs visuels. Ces descripteurs sont extraits en utilisant une méthode fixée à l'avance ce qui compromet les capacités d'adaptation du système à un environnement visuel changeant. Nous proposons une méthode permettant de décrire et d'apprendre des algorithmes de vision de manière globale, depuis l'image perçue jusqu'à la décision finale. L'application visée est la fonction d'évitement d'obstacles, indispensable à tout robot mobile. Nous décrivons de manière formelle la structure des algorithmes d'évitement d'obstacles basés sur la vision en utilisant une grammaire. Notre système utilise ensuite cette grammaire et des techniques de programmation génétique pour apprendre automatiquement des contrôleurs adaptés à un contexte visuel donné. Nous utilisons un environnement de simulation pour tester notre approche et mesurer les performances des algorithmes évolués. Nous proposons plusieurs techniques permettant d'accélérer l'évolution et d'améliorer les performances et les capacités de généralisation des contrôleurs évolués. Nous comparons notamment plusieurs méthodes d'évolution guidée et nous en présentons une nouvelle basée sur l'imitation d'un comportement enregistré. Par la suite nous validons ces méthodes sur un robot réel se déplaçant dans un environnement intérieur. Nous indiquons finalement comment ce système peut être adapté à d'autres applications utilisant la vision et nous proposons des pistes pour l'adaptation d'un comportement en temps réel sur le robot
Identifer | oai:union.ndltd.org:CCSD/oai:tel.archives-ouvertes.fr:tel-00811614 |
Date | 26 November 2008 |
Creators | Barate, Renaud |
Publisher | Université Pierre et Marie Curie - Paris VI |
Source Sets | CCSD theses-EN-ligne, France |
Language | French |
Detected Language | French |
Type | PhD thesis |
Page generated in 0.0015 seconds