• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Microdrone équipé d'un système visuel inspiré des abeilles / Microdrone with visual system inspired from honeybees

Vanhoutte, Erik 23 October 2018 (has links)
De nos jours, l'engouement pour la robotique autonome ne cesse d'augmenter en particulier pour les microdrones. En effet, ces aéronefs de petite taille font l'objet de nombreuses recherches afin de les miniaturiser et de rendre leur navigation plus autonome. Ainsi, cette thèse explore un système de vision parcimonieux dédié à la navigation courte portée au moyen de capteurs visuels auto-adaptatifs innovants composés de seulement 12 pixels aux propriétés optiques inspirées de celles de l'abeille. Deux algorithmes de mesure de flux optique sont ensuite comparés en conditions idéales sur 5 décades d'irradiance et 3 décades de vitesses optiques, puis testés en conditions réelles de vol. L'algorithme le plus robuste et le plus efficace, de par ses très faibles besoins calculatoires, a été embarqué à bord d'un micro quadrirotor pesant environ 400 g et équipé d'un système visuel parcimonieux de 96 pixels stabilisé via une nacelle articulée en roulis et tangage pour compenser les rotations du quadrirotor. Les stratégies de navigation observées chez l'abeille ont ensuite été simulées dans des environnements virtuels (tunnel de longueur 6 m ou 12 m pour une section minimale de 25 ou 50 cm) et la preuve de faisabilité de la détection du flux optique à bord d'un microdrone a été démontrée en conditions réelles de vol en salle expérimentale (vol de 4 m de long à une distance minimale de 50 cm). Couplé à des stratégies de navigation inspirées de l’abeille, ce système visuel innovant dédié à la perception du mouvement permettra dans un futur proche de naviguer dans des environnements encombrés ou exigus. / The interest in autonomous robotics is continually expanding, especially in the domain of micro air vehicles. Indeed, much research focuses on these small-size aircraft in order to miniaturize them and to make their navigation more autonomous. This PhD thesis explores a parsimonious vision system dedicated to short range navigation using innovative self-adaptive visual sensors composed of only 12 pixels with optical properties inspired by those of honeybees. Two optic flow measurement algorithms are first compared under ideal conditions over 5 decades of irradiance and 3 decades of optical velocity, then tested under real flight conditions. The most robust and efficient algorithm, due to its very low computing requirements, was embedded on board a micro quadrotor weighing about 400 g and equipped with a parsimonious visual system of 96 pixels stabilized via an articulated gimbal in roll and pitch to compensate the quadrotor rotations. The navigation strategies observed in honeybees were simulated in virtual environments (6 m or 12 m long tunnel for a minimum section of 25 or 50 cm) and the feasibility of the detection of the optic flow on board a micro quadrotor was demonstrated in real flight conditions in experimental room (flight of 4 m long at a minimum distance of 50 cm). Coupled with navigation strategies inspired by the honeybee, this innovative visual system dedicated to the perception of movement will in the near future allow to navigate in cluttered or cramped environments.
2

Un robot volant inspiré des insectes : De la mesure du flux optique aux stratégies de guidage visuel pour un micro hélicoptère / Flying robot inspired by insects : From optic flow sensing to visually guided strategies to control a Micro Aerial Vehicle

Expert, Fabien 21 October 2013 (has links)
Dans ce travail, nous avons premièrement développé et caractérisé des capteurs de flux optique robustes aux changements de conditions lumineuses inspirés par le système visuel de la mouche et mesurant la vitesse angulaire à l'aide de l'algorithme appelé "time of travel". En particulier, nous avons comparé les performances de capteurs mesurant visuellement la vitesse angulaire en intérieur et en extérieur. Les résultats de nos capteurs bio-inspirés ont aussi été comparés avec des capteurs de souris optique. Enfin, une nouvelle implémentation de l'algorithme "time of travel" a été proposée réduisant la charge de calcul de l'unité de traitement.Dans le cadre du projet européen CurvACE (Curved Artificial Compound Eye), nous avons aussi participé au développement du premier oeil composé courbé artificiel capable de mesurer le flux optique à haute vitesse sur une large gamme de lumière ambiante. En particulier, nous avons caractérisé ce capteur et montré sa capacité à mesurer le flux optique à l'aide de plusieurs algorithmes.Finalement, nous avons aussi développé un robot aérien miniature attaché appelé BeeRotor équipé de capteurs et de stratégies de vol imitant les insectes volants et se déplaçant de manière autonome dans un tunnel contrasté. Ce robot peut expliquer comment les abeilles contrôlent leur vitesse et leur position à l'aide du flux optique, tout en démontrant que des solutions alternatives existent aux systèmes couramment utilisés en robotique. Basé seulement sur des boucles de contrôle réagissant à l'environnement, cet hélicoptère a démontré sa capacité à voler de manière autonome dans un environnement complexe et mobile. / In this thesis, we first developed and characterized optic flow sensors robust to illuminance changes inspired by the visual system of the fly and computing the angular speed thanks to the "time of travel" scheme. In particular, we have compared the performances of sensors processing the visual angular speed based on a standard retina or an aVLSI retina composed of pixels automatically adapting to the background illuminance in indoor and outdoor environments. The results of such bio-inspired sensors have also been compared with optic mouse sensors which are used nowadays on Micro Aerial Vehicles to process the optic flow but only in outdoor environments. Finally, a new implementation of the "time of travel" scheme has been proposed reducing the computational load of the processing unit.In the framework of the European project CurvACE, we also participated to the design and development of the first curved artificial compound eye including fast motion detection in a very large range of illuminations. In particular, we characterized such sensor showing its ability to extract optic flow using different algorithms.Finally, we also developed a tethered miniature aerial robot equipped with sensors and control strategies mimicking flying insects navigating in a high-roof tunnel. This robot may explain how honeybees control their speed and position thanks to optic flow, while demonstrating alternative solution to classical robotic approach relying on ground-truth and metric sensors. Based only on visuomotor control loops reacting suitably to the environment, this rotorcraft has shown its ability to fly autonomously in complex and unstationary tunnels.
3

Capteurs optiques minimalistes & réflexes oculomoteurs biomimétiques. Application à la robotique aérienne

Kerhuel, Lubin 16 December 2009 (has links) (PDF)
La navigation visuelle des robots mobiles s'appuie traditionnellement sur des imageurs de type « caméra », dotés de plusieurs centaines de milliers de pixels lus séquentiellement. Le traitement de tels flux d'images nécessite une puissance de calcul qu'il serait difficile d'embarquer à bord d'un micro-aéronef de quelques grammes ou dizaines de grammes. Il existe pourtant déjà quelques agents aériens dont les performances de navigation en milieu inconnu sont remarquables, et qui pourtant fonctionnent de toute autre façon. Les oiseaux et les insectes, en particulier, montrent une capacité inégalée à éviter les obstacles et à poursuivre leurs proies ou leurs congénères. Cette capacité étonnante découle de leur perception particulière de l'environnement. Si les insectes, aux faibles capacités cognitives, perçoivent leur environnement de manière si efficace, c'est grâce aux capteurs minimalistes qu'ils embarquent. Certains insectes comme la mouche améliorent encore leur perception de l'environnement en stabilisant leur système visuel avec à un découplage tête-corps associé à un réflexe inertiel, équivalent au réflexe vestibulo-oculaire des mammifères. Cette stabilisation de la « plate-forme visuelle » permet de simplifier les traitements visuels subséquents et de mettre en œuvre des stratégies efficaces de navigation. Toute la première partie (« capteurs visuels ») de ce travail prend appui délibérément sur un œil élémentaire composé de seulement deux photorécepteurs (deux pixels). Nous avons d'abord amélioré les performances d'un capteur de vitesse angulaire bio-inspiré et revu le principe du capteur OSCAR, tous deux construits précédemment au laboratoire. Puis, nous avons développé et construit un nouveau type de capteur visuel, appelé VODKA, qui localise de manière ultrafine la position angulaire d'une cible visuelle. Dans la seconde partie (« réflexes visuo-inertiels »), nous avons développé un robot aérien miniature, appelé OSCAR II. Equipé de nos capteurs visuels et d'un réflexe « vestibulo-oculaire », OSCAR II, qui ne pèse que 100 grammes, est capable non seulement de fixer du regard une cible visuelle stationnaire, mais aussi de la poursuivre en lacet si elle vient à se déplacer, et ce même lors de fortes perturbations aérodynamiques. Avec sa capacité additionnelle de faire des saccades oculaires, OSCAR II préfigure les micro-véhicules aériens de demain, qui se dirigeront là où portera leur regard.
4

Intégration de la navigation et de la sélection de l'action dans une architecture de contrôle inspirée des ganglions de la base

Girard, Benoît 12 September 2003 (has links) (PDF)
La conception d'architectures de contrôle de robots adaptatifs autonomes nécessite de résoudre les problèmes de sélection de l'action et de navigation. La sélection de l'action concerne le choix, à chaque instant, du comportement le plus adapté afin d'assurer la survie. Ce choix dépend du contexte environnemental, de l'état interne du robot et de motivations pouvant être contradictoires. La navigation se rapporte à la locomotion, la cartographie, la localisation et la planification de chemin dans l'environnement. La mise en (\oe)uvre conjointe de ces deux capacités --pour, par exemple, exploiter la planification de chemin pour retrouver des ressources vitales-- n'a été que peu abordée par les nombreux systèmes ingénieurs appliqués à la robotique autonome. Les progrès récents en neurosciences permettent de proposer des modèles des structures neurales impliquées dans l'intégration d'information spatiales pour la sélection de l'action. Chez les vertébrés, ces structures correspondent aux ganglions de la base, un ensemble de noyaux subcorticaux. L'objectif de ce travail a été de s'inspirer de ces connaissances neurobiologiques pour élaborer l'architecture de sélection de l'action d'un robot autonome prenant en compte à la fois des informations sensorimotrices, motivationnelles et spatiales. Dans un premier temps, nous avons adapté un modèle biomimétique de sélection de l'action déjà existant pour tester sa capacité à résoudre une tâche de survie dans une implémentation robotique. Nous avons montré, par des comparaisons avec un système de sélection de type «winner-takes-all», que ses propriétés dynamiques lui permettent de limiter les oscillations comportementales, de maintenir ses variables internes à un niveau plus élevé et de limiter sa consommation d'énergie. Dans un deuxième temps, nous nous sommes inspirés des rôles distincts des circuits dorsaux --sélection de l'action-- et ventraux --intégration de la navigation-- des ganglions de la base pour élaborer une architecture interfaçant ce modèle de sélection de l'action avec deux stratégies de navigation : approche d'objets et planification topologique. Nous l'avons testée sur un robot simulé réalisant une tâche de survie similaire à la précédente. Le robot s'est avéré capable d'utiliser la planification pour rejoindre des ressources distantes, d'utiliser de façon complémentaire l'approche d'objets pour exploiter les ressources inconnues, d'adapter son comportement à la disparition de ressources, à son état interne et aux configurations environnementales, et enfin de survivre dans un environnement complexe réunissant l'ensemble des situations préalablement testées. Nous concluons que les circuits des ganglions de la base modélisés ont permis d'obtenir un système robuste d'interface de la sélection de l'action et de la navigation pour une architecture de contrôle de robot autonome. Cependant, des connaissances supplémentaires en neurobiologie seraient nécessaires pour affiner la plausibilité du modèle proposé. De plus, l'intégration de capacités d'apprentissage par renforcement --qui mettent également en jeu les ganglions de la base-- s'avère indispensable pour améliorer l'adaptativité de notre modèle.
5

DE L'ABEILLE AU ROBOT : LA RÉGULATION DU FLUX OPTIQUE. Contrôle conjoint de vitesse et d'évitements d'obstacles latéraux pour véhicules totalement actionnés.

Serres, Julien 11 July 2008 (has links) (PDF)
Nous avons conçu un pilote automatique, dénommé LORA (Lateral Optic flow Regulation Autopilot), qui s'inspire de la vision du mouvement des insectes ailés. Il se compose de deux régulateurs de flux optique interdépendants, chacun contrôlant un degré de liberté de translation : un régulateur de flux optique bilatéral contrôle la vitesse du robot, tandis qu'un régulateur de flux optique unilatéral lui permet d'éviter les obstacles latéraux. Des expériences de simulation montrent qu'un robot totalement actionné, équipé du seul pilote automatique LORA, franchit sans collision un corridor droit, fuselé, ou même non stationnaire. Le robot n'a besoin que d'une paire d'yeux latéraux mesurant les flux optiques droit et gauche et ne fait appel à aucun autre capteur, ni de vitesse, ni de distance. LORA est destiné à équiper un aéroglisseur miniature de 0,8 kg, doté de deux yeux élémentaires (à 2 pixels) et rendu totalement actionné par l'adjonction de deux propulseurs latéraux. Nous avons identifié tous les paramètres dynamiques de ce robot avant de les inclure dans les simulations. Ce travail constitue un premier pas vers un système de guidage agile et léger pour micro-aéronefs. La genèse du pilote automatique LORA a suivi trois étapes : LORA I, LORA II et LORA III, enrichies progressivement par l'analyse parallèle du comportement d'abeilles entraînées à pénétrer dans divers corridors pour y butiner un nectar artificiel. L'enregistrement vidéo à haute résolution et l'analyse statistique de trajectoires d'abeilles dans divers environnements ont permis de mettre à jour les ressorts du système visuo-moteur sous-jacent. Ainsi notre travail remet en question l'hypothèse d'" équilibrage des flux optiques latéraux ", proposée voici 20 ans pour expliquer " la réaction de centrage " de l'abeille dans un corridor. Bien que ce comportement ait inspiré maints roboticiens dans le monde, il apparaît en fait comme un cas particulier d'un comportement beaucoup plus général de l'insecte : le suivi de paroi. Le va-et-vient permanent biologie-robotique qui a animé notre travail offre aujourd'hui des retombées dans les deux camps. Il permet de comprendre comment un insecte de 100 mg peut naviguer sans SONAR, ni RADAR, ni LIDAR, ni GPS, et offre aux véhicules autonomes la possibilité de se comporter pareillement, sans avoir à mesurer ni vitesse ni distance.

Page generated in 0.5329 seconds