Cette thèse présente Lion, un système de navigation utilisant des informations visuelles et inertielles pour l’atterrissage planétaire de précision. Lion est conçu pour voler au-dessus de n’importe quel type de terrain, plat ou accidenté, et ne fait pas d’hypothèse sur sa topographie. Faire un atterrir un véhicule d’exploration planétaire autonome à moins de 100 mètres d’un objectif cartographié est un défi pour la navigation. Les approches basées vision tentent d’apparrier des détails 2D détectés dans une image avec des amers 3D cartographiés pour atteindre la précision requise. Lion utilise de façon serrée des mesures venant d’un nouvel algorithme d’appariement imagecarteafin de mettre à jour l’état d’un filtre de Kalman étendu intégrant des données inertielles. Le traitement d’image utilise les prédictions d’état et de covariance du filtre dans le but de déterminer les régions et échelles d’extraction dans l’image où trouver des amers non-ambigus. Le traitement local par amer de l’échelle image permet d’améliorer de façon significative la répétabilité de leur détection entre l’image de descente et l’image orbitale de référence. Nous avons également conçu un banc d’essai matériel appelé Visilab pour évaluer Lion dans des conditions représentatives d’une mission lunaire. L’observabilité des performances de navigation absolue dans Visilab est évaluée à l’aide d’un nouveau modèle d’erreur. Les performances du systèmes sont évaluées aux altitudes clés de la descente, en terme de précision de navigation et robustesse au changement de capteurs ou d’illumination, inclinaison de la caméra de descente, et sur différents types de relief. Lion converge jusqu’à une erreur de 4 mètres de moyenne et 47 mètres de dispersion 3 RMS à 3 kilomètres d’altitude à l’échelle. / This thesis introduces Lion, a vision-aided inertial navigation system for pinpoint planetary landing. Lion can fly over any type of terrain, whatever its topography, flat or not. Landing an autonomous spacecraft within 100 meters of a mapped target is a navigation challenge in planetary exploration. Vision-based approaches attemptto pair 2D features detected in camera images with 3D mapped landmarks to reach the required precision. Lion tightly uses measurements from a novel image-tomapmatcher in order to update the state of an extended Kalman filter propagated with inertial data. The image processing uses the state and covariance predictionsfrom the filter to determine the regions and extraction scales in which to search for non-ambiguous landmarks in the image. The individual image scale managementprocess per landmark greatly improves the repeatability rate between the map and descent images. We also designed a lunar-representative optical test bench called Visilab to test Lion on. The observability of absolute navigation performances in Visilab is evaluated with a novel error budget model. Finally, the system performances areevaluated at the key altitudes of a lunar landing, in terms of accuracy and robustness to sensor or illumination changes, off-nadir camera angle, and non-planar topography. We demonstrate error convergence down to a mean of 4 meters and a 3-RMS dispersion of 47 meters at 3 kilometers of altitude in hardware conditions at scale.
Identifer | oai:union.ndltd.org:theses.fr/2013ESAE0021 |
Date | 04 July 2013 |
Creators | Delaune, Jeff |
Contributors | Toulouse, ISAE, Le Besnerais, Guy, Farges, Jean-Loup |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | English |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.002 seconds