Ce mémoire s’intéresse aux problématiques du calibrage de caméras grand angles et de l’estimation de la profondeur à partir d’une caméra unique, immobile ou en mouvement. Les travaux effectués se situent à l’intersection entre la vision 3D classique et les nouvelles méthodes par apprentissage profond dans le domaine de la navigation autonome. Ils visent à permettre la détection d’obstacles par un drone en mouvement muni d’une seule caméra à très grand angle de vue. D’abord, une nouvelle méthode de calibrage est proposée pour les caméras fisheyes à très grand angle de vue par calibrage planaire à correspondances denses obtenues par lumière structurée qui peuvent être modélisée par un ensemble de caméras génériques virtuelles centrales. Nous démontrons que cette approche permet de modéliser directement des caméras axiales, et validons sur des données synthétiques et réelles. Ensuite, une méthode est proposée pour estimer la profondeur à partir d’une seule image, à partir uniquement des indices de profondeurs forts, les jonctions en T. Nous démontrons que les méthodes par apprentissage profond sont susceptibles d’apprendre les biais de leurs ensembles de données et présentent des lacunes d’invariance. Finalement, nous proposons une méthode pour estimer la profondeur à partir d’une caméra en mouvement libre à 6 degrés de liberté. Ceci passe par le calibrage de la caméra fisheye sur le drone, l’odométrie visuelle et la résolution de la profondeur. Les méthodes proposées permettent la détection d’obstacle pour un drone. / This thesis focuses on the problems of calibrating wide-angle cameras and estimating
depth from a single camera, stationary or in motion. The work carried out is at the
intersection between traditional 3D vision and new deep learning methods in the field
of autonomous navigation. They are designed to allow the detection of obstacles by a
moving drone equipped with a single camera with a very wide field of view. First, a
new calibration method is proposed for fisheye cameras with very large field of view
by planar calibration with dense correspondences obtained by structured light that can
be modelled by a set of central virtual generic cameras. We demonstrate that this approach
allows direct modeling of axial cameras, and validate it on synthetic and real
data. Then, a method is proposed to estimate the depth from a single image, using only
the strong depth cues, the T-junctions. We demonstrate that deep learning methods are
likely to learn from the biases of their data sets and have weaknesses to invariance. Finally,
we propose a method to estimate the depth from a camera in free 6 DoF motion.
This involves calibrating the fisheye camera on the drone, visual odometry and depth
resolution. The proposed methods allow the detection of obstacles for a drone.
Identifer | oai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/23782 |
Date | 08 1900 |
Creators | Brousseau, Pierre-André |
Contributors | Roy, Sébastien |
Source Sets | Université de Montréal |
Language | fra |
Detected Language | French |
Type | Thèse ou mémoire / Thesis or Dissertation |
Page generated in 0.0025 seconds