• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 9
  • 3
  • Tagged with
  • 21
  • 21
  • 12
  • 11
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Réseaux de neurones convolutionnels profonds pour la détection de petits véhicules en imagerie aérienne / Deep neural networks for the detection of small vehicles in aerial imagery

Ogier du Terrail, Jean 20 December 2018 (has links)
Cette thèse présente une tentative d'approche du problème de la détection et discrimination des petits véhicules dans des images aériennes en vue verticale par l'utilisation de techniques issues de l'apprentissage profond ou "deep-learning". Le caractère spécifique du problème permet d'utiliser des techniques originales mettant à profit les invariances des automobiles et autres avions vus du ciel.Nous commencerons par une étude systématique des détecteurs dits "single-shot", pour ensuite analyser l'apport des systèmes à plusieurs étages de décision sur les performances de détection. Enfin nous essayerons de résoudre le problème de l'adaptation de domaine à travers la génération de données synthétiques toujours plus réalistes, et son utilisation dans l'apprentissage de ces détecteurs. / The following manuscript is an attempt to tackle the problem of small vehicles detection in vertical aerial imagery through the use of deep learning algorithms. The specificities of the matter allows the use of innovative techniques leveraging the invariance and self similarities of automobiles/planes vehicles seen from the sky.We will start by a thorough study of single shot detectors. Building on that we will examine the effect of adding multiple stages to the detection decision process. Finally we will try to come to grips with the domain adaptation problem in detection through the generation of better looking synthetic data and its use in the training process of these detectors.
2

Application de l'identification d'objets sur images à l'étude de canopées de peuplements forestiers tropicaux : cas des plantations d'Eucalyptus et des mangroves

Zhou, Jia 16 November 2012 (has links) (PDF)
La thèse s'inscrit dans l'étude de la structuration des forêts à partir des propriétés de la canopée telles que décrites par la distribution spatiale ou la taille des houppiers des arbres dominants. L'approche suivie est fondée sur la théorie des Processus Ponctuels Marqués (PPM) qui permet de modéliser ces houppiers comme des disques sur images considérées comme un espace 2D. Le travail a consisté à évaluer le potentiel des PPM pour détecter automatiquement les houppiers d'arbres dans des images optiques de très résolution spatiale acquises sur des forêts de mangroves et des plantations d'Eucalyptus. Pour les mangroves, nous avons également travaillé sur des images simulées de réflectance et des données Lidar. Différentes adaptations (paramétrage, modèles d'énergie) de la méthode de PPM ont été testées et comparées grâce à des indices quantitatifs de comparaison entre résultats de la détection et références de positionnement issues du terrain, de photo-interprétation ou de maquettes forestières. Dans le cas des mangroves, les tailles de houppier estimées par détection restent cohérentes avec les sorties des modèles allométriques disponibles. Les résultats thématiques indiquent que la détection par PPM permet de cartographier dans une jeune plantation d'Eucalyptus la densité locale d'arbres dont la taille des houppiers est proche de la résolution spatiale de l'image (0.5m). Cependant, la qualité de la détection diminue quand le couvert se complexifie. Ce travail dresse plusieurs pistes de recherche tant mathématique, comme la prise en compte des objets de forme complexe, que thématiques, comme l'apport des informations forestières à des échelles pertinentes pour la mise au point de méthodes de télédétection.
3

Approche développementale de la perception pour un robot humanoïde

Lyubova, Natalia 30 October 2013 (has links) (PDF)
Les robots de service ou d'assistance doivent évoluer dans un environnent humain en constant changement, souvent imprévisible. Ils doivent donc être capables de s'adapter à ces changements, idéalement de manière autonome, afin de ne pas dépendre de la présence constante d'une supervision. Une telle adaptation en environnements non structurés nécessite notamment une détection et un apprentissage continu des nouveaux objets présents, que l'on peut imaginer inspirés des enfants, basés sur l'interaction avec leur parents et la manipulation motivée par la curiosité. Notre travail vise donc à concevoir une approche développementale permettant à un robot humanoïde de percevoir son environnement. Nous nous inspirons à la fois de la perception humaine en termes de fonctionnalités et du développements cognitifs observé chez les infants. Nous proposons une approche qui permet à un robot humanoïde d'ex- plorer son environnement de manière progressive, comme un enfant, grâce à des interactions physiques et sociales. Suivant les principes de la robotique développementale, nous nous concentrons sur l'apprentissage progressif, continu et autonome qui ne nécessite pas de connaissances a priori des objets. Notre système de perception débute par la segmentation de l'espace visuel en proto-objets, qui serviront d'unités d'attention. Chaque proto-objet est représenté par des carac- téristiques bas-niveaux (la couleur et la texture) et sont eux-mêmes intégrés au sein de caractéristiques de plus haut niveau pour ensuite former un modèle multi-vues. Cet apprentissage s'effectue de manière incrémentale et chaque proto-objet est associé à une ou plusieurs entités physiques distinctes. Les entités physiques sont ensuite classés en trois catégories : parties du robot, parties des humains et objets. La caractérisation est basée sur l'analyse de mouvements des entités physiques provenant de la vision ainsi que sur l'information mutuelle entre la vison et proprioception. Une fois que le robot est capable de catégoriser les entités, il se concentre sur l'interaction active avec les objets permettant ainsi d'acquérir de nouvelles informations sur leur apparence qui sont intégrés dans leurs modèles de représen- tation. Ainsi, l'interaction améliore les connaissances sur les objets et augmente la quantité d'information dans leurs modèles. Notre système de perception actif est évalué avec le robot humanoïde iCub en utilisant une base expérimentale de 20 objets. Le robot apprend par interaction avec un partenaire humain ainsi que par ses propres actions sur les objets. Notre système est capable de créer de manière non supervisée des modèles cohérents des différentes entités et d'améliorer les modèles des objets par apprentissage interactif et au final de reconnaître des objets avec 88.5% de réussite.
4

Approche pixel de la soustraction d'arrière-plan en vidéo, basée sur un mélange de gaussiennes imprécises / Fuzzy pixel approach of video background subtraction, based on a mixture of imprecise Gaussian

Darwich, Ali 01 March 2018 (has links)
La détection d'objets en mouvement représente une étape très importante pour de nombreuses applications telles que l'analyse du comportement humain pour la surveillance visuelle, la reconnaissance d'action par modèle, le suivi du trafic routier, etc. La soustraction d'arrière-plan est une approche populaire, mais difficile étant donnée qu'elle doit surmonter de nombreux obstacles, comme l'évolution dynamique du fond, les variations de luminosité, les occlusions, etc. Dans les travaux présentés, nous nous sommes intéressés à ce problème de segmentation objets/fond, avec une modélisation floue de type-2 pour gérer l'imprécision du modèle et des données. La méthode proposée modélise l'état de chaque pixel à l'aide d'un modèle de mélange de gaussiennes imprécis et évolutif, qui est exploité par plusieurs classifieurs flous pour finalement estimer la classe du pixel à chaque image. Plus précisément, cette décision prend en compte l'historique de son évolution, mais aussi son voisinage spatial et ses éventuels déplacements dans les images précédentes. Puis nous avons comparé la méthode proposée avec d'autres méthodes proches, notamment des méthodes basées sur un modèle de mélanges gaussiens, des méthodes basées floues, ou de type ACP. Cette comparaison nous a permis de situer notre méthode par rapport à l'existant et de proposer quelques perspectives à ce travail. / Moving objects detection is a very important step for many applications such as human behavior analysis surveillance, model-based action recognition, road traffic monitoring, etc. Background subtraction is a popular approach, but difficult given that it must overcome many obstacles, such as dynamic background changes, brightness variations, occlusions, and so on. In the presented works, we focused on this problem of objects/background segmentation, using a type-2 fuzzy modeling to manage the inaccuracy of the model and the data. The proposed method models the state of each pixel using an imprecise and scalable Gaussian mixture model, which is exploited by several fuzzy classifiers to ultimately estimate the pixel class at each image. More precisely, this decision takes into account the history of its evolution, but also its spatial neighborhood and its possible displacements in the preceding images. Then we compared the proposed method with other close methods, including methods based on a gaussian mixture model, fuzzy based methods, or ACP type methods. This comparison allowed us to assess its good performances, and to propose some perspectives to this work.
5

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation Markovienne et la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation de situations potentiellement dangereuses aux passages à niveau

Salmane, Houssam 09 July 2013 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans le cadre duprojet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l'appel ANR-VTT2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhiculedu Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTESSETde l'UTBM et le laboratoire LEOST de l'IFSTTAR.L'objectif de cette thèse est de développer un système de perception permettantl'interprétation de scénarios dans l'environnement d'un passage à niveau. Il s'agitd'évaluer des situations potentiellement dangereuses par l'analyse spatio-temporelledes objets présents autour du passage à niveau.Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. Lapremière étape est consacrée à la mise en place d'une architecture spatiale des capteursvidéo permettant de couvrir de manière optimale l'environnement du passageà niveau. Cette étape est mise en oeuvre dans le cadre du développement d'unsimulateur d'aide à la sécurité aux passages à niveau en utilisant un système deperception multi-vues. Dans ce cadre, nous avons proposé une méthode d'optimisationpermettant de déterminer automatiquement la position et l'orientation descaméras par rapport à l'environnement à percevoir.La deuxième étape consisteà développer une méthode robuste de suivi d'objets enmouvement à partir d'une séquence d'images. Dans un premier temps, nous avonsproposé une technique permettant la détection et la séparation des objets. Le processusde suivi est ensuite mis en oeuvre par le calcul et la rectification du flotoptique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman.La dernière étape est destinée à l'analyse des trajectoires 2D reconstruites parl'étape précédente pour l'interprétation de scénarios. Cette analyse commence parune modélisation markovienne des trajectoires 2D. Un système de décision à basede théorie de l'évidence est ensuite proposé pour l'évaluation de scénarios, aprèsavoir modélisé les sources de danger.L'approche proposée a été testée et évaluée avec des données issues de campagnesexpérimentales effectuées sur site réel d'un passage à niveau mis à disposition parRFF.
6

Event-based detection and tracking / Détection et suivi basés sur les événements

Reverter Valeiras, David 18 September 2017 (has links)
L'objectif principal de cette thèse est le développement d'algorithmes événementiels pour la détection et le suivi d'objets. Ces algorithmes sont spécifiquement conçus pour travailler avec une sortie produite par des caméras neuromorphiques. Ce type de caméras sont un nouveau type de capteurs bio inspirés, dont le principe de fonctionnement s'inspire de la rétine: chaque pixel est indépendant et génère des événements de manière asynchrone lorsqu'un changement de luminosité suffisamment important est détecté à la position correspondante du plan focal. Cette nouvelle façon d'encoder l'information visuelle requiert de nouvelles méthodes pour la traiter. D'abord, un suiveur (tracker) plan est décrit. Cet algorithme associe à un objet une série de formes simples reliées par des ressorts. Le système mécanique virtuel résultant est mis à jour pour chaque événement. Le chapitre suivant présente un algorithme de détection de lignes et de segments, pouvant constituer une caractéristique (feature) événementielle de bas niveau. Ensuite, deux méthodes événementielles pour l'estimation de la pose 3D sont présentées. Le premier de ces algorithmes 3D est basé sur l'hypothèse que l'estimation de la pose est toujours proche de la position réelle, et requiert donc une initialisation manuelle. Le deuxième de ces algorithmes 3D est conçu pour surmonter cette limitation. Toutes les méthodes présentées mettent à jour l'estimation de la position (2D ou 3D) pour chaque événement. Cette thèse montre que la vision événementielle permet de reformuler une vaste série de problèmes en vision par ordinateur, souvent donnant lieu à des algorithmes plus simples mais toujours précis. / The main goal of this thesis is the development of event-based algorithms for visual detection and tracking. This algorithms are specifically designed to work on the output of neuromorphic event-based cameras. This type of cameras are a new type of bioinspired sensors, whose principle of operation is based on the functioning of the retina: every pixel is independent and generates events asynchronously when a sufficient amount of change is detected in the luminance at the corresponding position on the focal plane. This new way of encoding visual information calls for new processing methods. First, a part-based shape tracking is presented, which represents an object as a set of simple shapes linked by springs. The resulting virtual mechanical system is simulated with every incoming event. Next, a line and segment detection algorithm is introduced, which can be employed as an event-based low level feature. Two event-based methods for 3D pose estimation are then presented. The first of these 3D algorithms is based on the assumption that the current estimation is close to the true pose of the object, and it consequently requires a manual initialization step. The second of the 3D methods is designed to overcome this limitation. All the presented methods update the estimated position (2D or 3D) of the tracked object with every incoming event. This results in a series of trackers capable of estimating the position of the tracked object with microsecond resolution. This thesis shows that event-based vision allows to reformulate a broad set of computer vision problems, often resulting in simpler but accurate algorithms.
7

Application de l’identification d’objets sur images à l’étude de canopées de peuplements forestiers tropicaux : cas des plantations d'Eucalyptus et des mangroves / Object identification on remote sensing images of tropical forest canopies -Applications to the study of Eucalyptus plantation and mangrove forest

Zhou, Jia 16 November 2012 (has links)
La thèse s'inscrit dans l'étude de la structuration des forêts à partir des propriétés de la canopée telles que décrites par la distribution spatiale ou la taille des houppiers des arbres dominants. L'approche suivie est fondée sur la théorie des Processus Ponctuels Marqués (PPM) qui permet de modéliser ces houppiers comme des disques sur images considérées comme un espace 2D. Le travail a consisté à évaluer le potentiel des PPM pour détecter automatiquement les houppiers d'arbres dans des images optiques de très résolution spatiale acquises sur des forêts de mangroves et des plantations d'Eucalyptus. Pour les mangroves, nous avons également travaillé sur des images simulées de réflectance et des données Lidar. Différentes adaptations (paramétrage, modèles d'énergie) de la méthode de PPM ont été testées et comparées grâce à des indices quantitatifs de comparaison entre résultats de la détection et références de positionnement issues du terrain, de photo-interprétation ou de maquettes forestières.Dans le cas des mangroves, les tailles de houppier estimées par détection restent cohérentes avec les sorties des modèles allométriques disponibles. Les résultats thématiques indiquent que la détection par PPM permet de cartographier dans une jeune plantation d'Eucalyptus la densité locale d'arbres dont la taille des houppiers est proche de la résolution spatiale de l'image (0.5m). Cependant, la qualité de la détection diminue quand le couvert se complexifie. Ce travail dresse plusieurs pistes de recherche tant mathématique, comme la prise en compte des objets de forme complexe, que thématiques, comme l'apport des informations forestières à des échelles pertinentes pour la mise au point de méthodes de télédétection. / This PhD work aims at providing information on the forest structure through the analysis of canopy properties as described by the spatial distribution and the crown size of dominant trees. Our approach is based on the Marked Point Processes (MPP) theory, which allows modeling tree crowns observed in remote sensing images by discs belonging a two dimensional space. The potential of MPP to detect the trees crowns automatically is evaluated by using very high spatial resolution optical satellite images of both Eucalyptus plantations and mangrove forest. Lidar and simulated reflectance images are also analyzed for the mangrove application. Different adaptations (parameter settings, energy models) of the MPP method are tested and compared through the development of quantitative indices that allow comparison between detection results and tree references derived from the field, photo-interpretation or the forest mockups.In the case of mangroves, the estimated crown sizes from detections are consistent with the outputs from the available allometric models. Other results indicate that tree detection by MPP allows mapping, the local density of trees of young Eucalyptus plantations even if crown size is close to the image spatial resolution (0.5m). However, the quality of detection by MPP decreases with canopy closeness. To improve the results, further work may involve MPP detection using objects with finer shapes and forest data measurements collected at the tree plant scale.
8

Apprentissage statistique de classes sémantiques pour l'interprétation d'images aériennes / Learning of semantic classes for aerial image analysis

Randrianarivo, Hicham 15 December 2016 (has links)
Ce travail concerne l'interprétation du contenu des images aériennes optiques panchromatiques très haute résolution. Deux méthodes pour la classification du contenu de ces images ont été développées. Une méthode basée sur la détection des instances des différentes catégories d'objets et une autre méthode basée sur la segmentation sémantique des superpixels de l'image utilisant un modèle de contexte entre les différentes instances des superpixels. La méthode de détection des objets dans une image très haute résolution est basée sur l'apprentissage d'un mélange de modèle d'apparence de la catégorie d'objets à détecter puis d'une fusion des hypothèses renvoyées par les différents modèles. Nous proposons une méthode de partitionnement en sous catégories visuelles basée sur une procédure en deux étapes des exemples d'apprentissages de la base en fonction des métadonnées disponibles et de l'apparence des exemples d'apprentissage. Cette phase de partitionnement permet d'apprendre des modèles d'apparence où chacun est spécialisés dans la reconnaissance d'une sous-partie de la base et dont la fusion permet la généralisation de la détection à l'ensemble des objets de la classe. Les performances du détecteur ainsi obtenu sont évaluées sur plusieurs bases d'images aériennes très haute résolution à des résolution différentes et en plusieurs endroits du monde. La méthode de segmentation sémantique contextuelle développée utilise une combinaison de la description visuelle d'un superpixel extrait d'une image et des informations de contexte extraient entre un superpixel et ses voisins. La représentation du contexte entre les superpixels est obtenu en utilisant une représentation par modèle graphique entre les superpixels voisins. Les noeuds du graphes étant la représentation visuelle d'un superpixel et les arêtes la représentation contextuelle entre deux voisins. Enfin nous présentons une méthode de prédiction de la catégorie d'un superpixel en fonction des décisions données par les voisins pour rendre les prédictions plus robustes. La méthode a été testé sur une base d'image aérienne très haute résolution. / This work is about interpretation of the content of very high resolution aerial optical panchromatic images. Two methods are proposed for the classification of this kind of images. The first method aims at detecting the instances of a class of objects and the other method aims at segmenting superpixels extracted from the images using a contextual model of the relations between the superpixels. The object detection method in very high resolution images uses a mixture of appearance models of a class of objects then fuses the hypothesis returned by the models. We develop a method that clusters training samples into visual subcategories based on a two stages procedure using metadata and visual information. The clustering part allows to learn models that are specialised in recognizing a subset of the dataset and whose fusion lead to a generalization of the object detector. The performances of the method are evaluate on several dataset of very high resolution images at several resolutions and several places. The method proposed for contextual semantic segmentation use a combination of visual description of a superpixel extract from the image and contextual information gathered between a superpixel and its neighbors. The contextual representation is based on a graph where the nodes are the superpixels and the edges are the relations between two neighbors. Finally we predict the category of a superpixel using the predictions made by of the neighbors using the contextual model in order to make the prediction more reliable. We test our method on a dataset of very high resolution images.
9

Mise en relation d'images et de modèles 3D avec des réseaux de neurones convolutifs / Relating images and 3D models with convolutional neural networks

Suzano Massa, Francisco Vitor 09 February 2017 (has links)
La récente mise à disposition de grandes bases de données de modèles 3D permet de nouvelles possibilités pour un raisonnement à un niveau 3D sur les photographies. Cette thèse étudie l'utilisation des réseaux de neurones convolutifs (CNN) pour mettre en relation les modèles 3D et les images.Nous présentons tout d'abord deux contributions qui sont utilisées tout au long de cette thèse : une bibliothèque pour la réduction automatique de la mémoire pour les CNN profonds, et une étude des représentations internes apprises par les CNN pour la mise en correspondance d'images appartenant à des domaines différents. Dans un premier temps, nous présentons une bibliothèque basée sur Torch7 qui réduit automatiquement jusqu'à 91% des besoins en mémoire pour déployer un CNN profond. Dans un second temps, nous étudions l'efficacité des représentations internes des CNN extraites d'un réseau pré-entraîné lorsqu'il est appliqué à des images de modalités différentes (réelles ou synthétiques). Nous montrons que malgré la grande différence entre les images synthétiques et les images naturelles, il est possible d'utiliser certaines des représentations des CNN pour l'identification du modèle de l'objet, avec des applications possibles pour le rendu basé sur l'image.Récemment, les CNNs ont été utilisés pour l'estimation de point de vue des objets dans les images, parfois avec des choix de modélisation très différents. Nous présentons ces approches dans un cadre unifié et nous analysons les facteur clés qui ont une influence sur la performance. Nous proposons une méthode d'apprentissage jointe qui combine à la fois la détection et l'estimation du point de vue, qui fonctionne mieux que de considérer l'estimation de point de vue de manière indépendante.Nous étudions également l'impact de la formulation de l'estimation du point de vue comme une tâche discrète ou continue, nous quantifions les avantages des architectures de CNN plus profondes et nous montrons que l'utilisation des données synthétiques est bénéfique. Avec tous ces éléments combinés, nous améliorons l'état de l'art d'environ 5% pour la précision de point de vue moyenne sur l'ensemble des données Pascal3D+.Dans l'étude de recherche de modèle d'objet 3D dans une base de données, l'image de l'objet est fournie et l'objectif est d'identifier parmi un certain nombre d'objets 3D lequel correspond à l'image. Nous étendons ce travail à la détection d'objet, où cette fois-ci un modèle 3D est donné, et l'objectif consiste à localiser et à aligner le modèle 3D dans image. Nous montrons que l'application directe des représentations obtenues par un CNN ne suffit pas, et nous proposons d'apprendre une transformation qui rapproche les répresentations internes des images réelles vers les représentations des images synthétiques. Nous évaluons notre approche à la fois qualitativement et quantitativement sur deux jeux de données standard: le jeu de données IKEAobject, et le sous-ensemble du jeu de données Pascal VOC 2012 contenant des instances de chaises, et nous montrons des améliorations sur chacun des deux / The recent availability of large catalogs of 3D models enables new possibilities for a 3D reasoning on photographs. This thesis investigates the use of convolutional neural networks (CNNs) for relating 3D objects to 2D images.We first introduce two contributions that are used throughout this thesis: an automatic memory reduction library for deep CNNs, and a study of CNN features for cross-domain matching. In the first one, we develop a library built on top of Torch7 which automatically reduces up to 91% of the memory requirements for deploying a deep CNN. As a second point, we study the effectiveness of various CNN features extracted from a pre-trained network in the case of images from different modalities (real or synthetic images). We show that despite the large cross-domain difference between rendered views and photographs, it is possible to use some of these features for instance retrieval, with possible applications to image-based rendering.There has been a recent use of CNNs for the task of object viewpoint estimation, sometimes with very different design choices. We present these approaches in an unified framework and we analyse the key factors that affect performance. We propose a joint training method that combines both detection and viewpoint estimation, which performs better than considering the viewpoint estimation separately. We also study the impact of the formulation of viewpoint estimation either as a discrete or a continuous task, we quantify the benefits of deeper architectures and we demonstrate that using synthetic data is beneficial. With all these elements combined, we improve over previous state-of-the-art results on the Pascal3D+ dataset by a approximately 5% of mean average viewpoint precision.In the instance retrieval study, the image of the object is given and the goal is to identify among a number of 3D models which object it is. We extend this work to object detection, where instead we are given a 3D model (or a set of 3D models) and we are asked to locate and align the model in the image. We show that simply using CNN features are not enough for this task, and we propose to learn a transformation that brings the features from the real images close to the features from the rendered views. We evaluate our approach both qualitatively and quantitatively on two standard datasets: the IKEAobject dataset, and a subset of the Pascal VOC 2012 dataset of the chair category, and we show state-of-the-art results on both of them
10

Development of embedded image processing for low-altitude surveillance UAVs to assist operators in their mission / Développement d’un système d’assistance aux opérateurs de mini-drones de surveillance par traitements d’images embarqués

Castelli, Thomas 30 September 2016 (has links)
Cette thèse, effectuée en partenariat entre la société Survey Copter, le laboratoire Hubert Curien et la Direction Générale de l’Armement (DGA), répond à des besoins tant militaires que civils dans le cadre de l’utilisation de drones à basse altitude. Dans un premier temps nous avons focalisé nos recherches sur la détection d’objets mobiles pour les mini-drones de surveillance destinés aux applications militaires, tels que ceux opérés par Survey Copter. Nous présentons d’abord la méthode que nous avons développé qui consiste en une comparaison entre un flot optique et le flot estimé, l’objectif étant de détecter les objets ayant un mouvement différent de celui correspondant à la scène dans sa globalité, et de maximiser la robustesse de cette détection vis-à-vis des problèmes induits par la parallaxe. Puis, nous décrivons le projet général dans lequel s’inscrit cette détection, en détaillant les choix technologiques et compromis qui ont été effectués, l’objectif étant de développer une carte électronique qui puisse être embarquée sur un drone et permettant d’apporter des fonctionnalités d’assistance aux opérateurs. Une seconde partie, réalisée en collaboration avec le Dr. Mubarak Shah, directeur du laboratoire CRCV en Floride, vise à apporter une solution au problème de sécurité qu’engendre le nombre grandissant de micro-drones de loisir évoluant dans l’espace aérien civil. La solution que nous proposons comporte deux étapes, premièrement elle utilise les informations cadastrales pour pré-calculer avant le décollage un plan de vol qui permet d’éviter les zones dangereuses comme les routes. La seconde étape intervient pendant le vol et permet d’adapter localement le plan de vol de façon à éviter le survol des objets mobiles tels que les voitures et piétons. Les résultats encourageants que nous avons obtenus grâce à notre méthode de détection d’objets mobiles ont conduit à une publication dans la conférence ISPA 2015, et notre contribution pour l’utilisation sécurisée de drones dans l’espace aérien civil va faire l’objet d’une soumission à la conférence ICRA 2017 / This thesis, in partnership between Survey Copter (a French company), theHubert Curien laboratory, and the DGA (a compnent of the FrenchMinistry of Defense), aims at providing solutions for low-altitude UAVs for both military and civil applications. We first focus on moving objects detection for military surveillance using mini-UAVs, such as Survey Copter’s products. Our method consists in comparing a dense optical flow with an estimated flow in order to isolate objects that are independently moving compared to the global scene. This method was developed to be robust to parallax which is an inherent problem of such platforms, parallax. In this thesis we also detail an on-going project that consists in the development of an embedded processing board able to provide all necessary functionalities to assist UAV operators in their mission. Given the recent popularity of consumer drones, we worked, with Dr. Mubarak Shah, Director of the CRCV laboratory in Florida, towards providing a solution to the security threat those vehicles represent for public safety. Our method consists in two steps. The first one is performed prior to takeoff by computing the safest path for the mission in order to avoid dangerous areas such as roads. The second is based on an in-flight adaptation process of the initial flight plan to avoid flying above some particular objects such as cars or pedestrians. The promising results obtained thaks to our moving objects detection method have led to a publication in ISPA 2015, and our contribution towards safe navigation of UAVs will be submitted in September to ICRA 2017

Page generated in 0.1141 seconds