• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 11
  • 2
  • Tagged with
  • 40
  • 40
  • 17
  • 14
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Capteurs visuels bio-inspirés pour des applications robotiques et automobiles / Bio-inspired visual sensors for robotic and automotive applications

Mafrica, Stefano 12 July 2016 (has links)
Grâce aux progrès réalisés dans les domaines de la robotique et des systèmes de transport intelligents (ITS), les véhicules autonomes du futur sont en train de devenir une réalité. Comme les véhicules autonomes devront se comporter en toute sécurité en présence d’autres véhicules, de piétions et d’autres objets fixes ou en mouvement, une des choses les plus importantes qu’ils doivent faire est de percevoir efficacement à la fois leur mouvement et l’environnement autour d’eux. Dans cette thèse, nous avons d’abord étudié comment des capteurs visuels bio-inspirés, qui mesurent le flux optique en 1-D en utilisant seulement quelques pixels sur la base du système visuel de la mouche, pourraient être utilisés pour améliorer les manœuvres de stationnement automatiques. Nous avons ensuite travaillé sur une nouvelle rétine de silicium bio-inspirée, en montrant que le nouveau pixel, appelé M²APIX, est capable de s’auto-adapter dans une gamme de 7 décades et de répondre de manière appropriée à des changements de luminosité rapides jusqu’à ±3 décades, tout en conservant une sensibilité aux contrastes aussi bas que 2%. Nous avons enfin développé et testé un nouveau capteur de flux optique basé sur cette rétine auto-adaptative et sur une nouvelle méthode robuste pour le calcul du flux optique, qui est robuste aux variations de lumière, textures et vibrations que l’on retrouve en milieu routier. Nous avons également construit un robot de type voiture, appelé BioCarBot, qui estime sa vitesse et son angle de braquage au moyen d’un filtre de Kalman étendu (EKF), en utilisant uniquement les mesures de flux optique délivrées par deux capteurs de ce type regardant vers le sol. / Thanks to the advances in the fields of robotics and intelligent transportation systems (ITS), the autonomous vehicles of the future are gradually becoming a reality. As autonomous vehicles will have to behave safely in presence of other vehicles, pedestrians and other fixed and moving objects, one of the most important things they need to do is to effectively perceive both their motion and the environment around them. In this thesis, we first investigated how bio-inspired visual sensors, giving 1-D optic flow using a few pixels based on the findings on the fly’s visual system, could be used to improve automatic parking maneuvers. We subsequently tested a novel bio-inspired silicon retina, showing that the novel pixel, called M2APix, can auto-adapt in a 7-decade range and respond appropriately to step changes up to ±3 decades, while keeping sensitivity to contrasts as low as 2%. We lastly developed and tested a novel optic flow sensor based on this auto-adaptive retina and a new robust method for computing the optic flow, which is robust to the light levels, textures and vibrations that can be found while operating on the road. We also constructed a car-like robot, called BioCarBot, which estimates its velocity and steering angle by means of an extended Kalman filter (EKF) using only the optic flow measurements delivered by two downward-facing sensors of this kind.
22

Capteurs optiques minimalistes & réflexes oculomoteurs biomimétiques. Application à la robotique aérienne

Kerhuel, Lubin 16 December 2009 (has links) (PDF)
La navigation visuelle des robots mobiles s'appuie traditionnellement sur des imageurs de type « caméra », dotés de plusieurs centaines de milliers de pixels lus séquentiellement. Le traitement de tels flux d'images nécessite une puissance de calcul qu'il serait difficile d'embarquer à bord d'un micro-aéronef de quelques grammes ou dizaines de grammes. Il existe pourtant déjà quelques agents aériens dont les performances de navigation en milieu inconnu sont remarquables, et qui pourtant fonctionnent de toute autre façon. Les oiseaux et les insectes, en particulier, montrent une capacité inégalée à éviter les obstacles et à poursuivre leurs proies ou leurs congénères. Cette capacité étonnante découle de leur perception particulière de l'environnement. Si les insectes, aux faibles capacités cognitives, perçoivent leur environnement de manière si efficace, c'est grâce aux capteurs minimalistes qu'ils embarquent. Certains insectes comme la mouche améliorent encore leur perception de l'environnement en stabilisant leur système visuel avec à un découplage tête-corps associé à un réflexe inertiel, équivalent au réflexe vestibulo-oculaire des mammifères. Cette stabilisation de la « plate-forme visuelle » permet de simplifier les traitements visuels subséquents et de mettre en œuvre des stratégies efficaces de navigation. Toute la première partie (« capteurs visuels ») de ce travail prend appui délibérément sur un œil élémentaire composé de seulement deux photorécepteurs (deux pixels). Nous avons d'abord amélioré les performances d'un capteur de vitesse angulaire bio-inspiré et revu le principe du capteur OSCAR, tous deux construits précédemment au laboratoire. Puis, nous avons développé et construit un nouveau type de capteur visuel, appelé VODKA, qui localise de manière ultrafine la position angulaire d'une cible visuelle. Dans la seconde partie (« réflexes visuo-inertiels »), nous avons développé un robot aérien miniature, appelé OSCAR II. Equipé de nos capteurs visuels et d'un réflexe « vestibulo-oculaire », OSCAR II, qui ne pèse que 100 grammes, est capable non seulement de fixer du regard une cible visuelle stationnaire, mais aussi de la poursuivre en lacet si elle vient à se déplacer, et ce même lors de fortes perturbations aérodynamiques. Avec sa capacité additionnelle de faire des saccades oculaires, OSCAR II préfigure les micro-véhicules aériens de demain, qui se dirigeront là où portera leur regard.
23

Contrôle visuel du déplacement en trajectoire courbe : approche sensorimotrice du rôle structurant du flux optique

Authié, Colas 20 October 2011 (has links)
L'objectif principal de cette thèse est de mettre en évidence le rôle de la direction et du mouvement de la tête et des yeux dans la perception et le contrôle de trajectoires courbes, en référence aux propriétés des flux optiques générés par notre déplacement dans un environnement stable. Nous utilisons deux méthodes expérimentales : une approche comportementale sur simulateur de conduite et une approche psychophysique permettant d'évaluer les capacités d'observateurs humains à percevoir la direction du mouvement propre. Ces méthodes combinées visent à mettre en évidence les effets comportementaux d'une perception active de la direction du mouvement propre. L'introduction dresse l'état de la recherche sur les informations disponibles et les stratégies perceptives impliquées dans la prise de virage en conduite automobile. Ainsi, l'accent est à la fois mis sur le rôle du point de corde (dans le cas étudié d'un déplacement sur une route délimitée) et plus généralement sur le rôle du flux optique (description de la transformation apparente de l'environnement visuel lors du déplacement), soulignant notre capacité à interpréter spatialement le mouvement, mais aussi le caractère indissociable de la motricité et de la perception. Nous abordons ensuite le rôle des mouvements combinés des yeux et de la tête, dans une perspective fonctionnelle du contrôle du mouvement.Dans un premier chapitre expérimental, nous analysons les mouvements d'orientation de la tête lors de la prise de virage en conduite simulée. Nous montrons que les mouvements de la tête sont indépendants de la manipulation du volant et qu'ils participent activement à l'orientation du regard vers le point de corde. Dans un second chapitre expérimental, nous nous attachons à décrire les mouvements combinés des yeux et de la tête, en lien avec la géométrie de l'environnement routier. Dans une troisième partie, nous analysons plus finement le comportement du regard en lien avec la direction du point de corde et la vitesse locale du flux optique. Nous montrons à la fois que le point de corde correspond à un minimum local de vitesse optique et que la composante globale du flux optique induit un nystagmus optocinétique systématique. Enfin, lors d'une quatrième étude psychophysique, nous nous attachons à décrire finement l'effet de la variation de la direction du regard sur la discrimination de la direction du mouvement propre. Nous montrons que les seuils de discrimination de trajectoire sont minimaux lorsque le regard est orienté vers une zone de vitesse de flux minimal. Nous proposons finalement un modèle de détection de la trajectoire, basé sur une fraction de Weber des vitesses de flux fovéales, qui prédit très précisément les seuils expérimentaux. Les stratégies observées d'orientation du regard (combinaison des mouvements des yeux et de la tête) vers le point de corde sont compatibles avec une sélection optimale de l'information présente dans le flux optique. / The main purpose of this dissertation is to determine the role of the direction and movement of the eyes and the head in the perception and control of self-motion in curved trajectories, with respect to the properties of the optical flows generated in a stable environment. To do so, we used two experimental methods: a psychophysical approach which allows to assess human observers' ability to perceive the direction of self-motion; and a behavior-based approach on a driving simulator. The two methods combined should help to highlight active perception of self-motion.The introduction reviews the current knowledge of perceptuo-motor strategies during curve driving. In this context, we put a stress on both (1.) the particular role of the tangent point -- in the driving situation on a delimited road, and on the role of the optic flow in general (apparent transformation of the optic array during self-motion), emphasizing the capability of humans to spatially interpret the movement; and (2.) on the duality between movement and perception. We then address the role of head-and-eye combined movements, in a functional perspective of the control of self-motion. In a first experimental section, we analyze the oriented movements of the head in simulated curve driving. We demonstrate that head movements are independent from the handling of the steering wheel, and that they actively participate in the gaze orientation toward the tangent point.In a second experimental section, we set out to describe the combined movements of head and eyes, with respect to the geometry of the road environment. In a third section, we analyze in more details gaze behavior as a function of the tangent point direction and of the local speed of optical flow. We demonstrate that the tangent point corresponds to a local minimum of optic flow speed and that the global component of the optic flow induces a systematic optokinetic nystagmus. In a fourth section involving a psychophysical study, we scrutinize the effect of varying gaze direction on the discrimination of the direction of self-motion. We show that the trajectory discrimination thresholds are minimal when the gaze is oriented toward an area of minimum flow speed. We finally propose a model of trajectory change detection, relying on a Weber fraction of foveal flow speeds, predicting the experimental thresholds very precisely. The gaze orientation strategies we have observed (combination of head and eye movements) toward the tangent point are compatible with this model and with the hypothesis of an active an optimal selection of the information contained in the optical flow.
24

Perception visuelle du mouvement propre : effets des mouvements de la tête durant la marche sur l'estimation de la distance parcourue à partir du flux optique / Visual perception of self-motion : the relative contribution of viewpoint oscillation to the perception of distance travelled

Bossard, Martin 29 June 2018 (has links)
Lorsqu’ils explorent leur environnement, les humains comme les autres animaux ont la capacité d’utiliser de nombreuses sources d’information afin d’estimer la distance qu’ils parcourent. Le flux optique est un indice important dans la perception de la distance parcourue. De plus, il a été montré que l’ajout d’un point de vue oscillant à une simulation visuelle de mouvement propre vers l’avant modulait cette perception. A travers ce travail, nous nous sommes intéressés à tester si la perception de la distance parcourue était également affectée par un point de vue oscillant, mimant de manière plus ou moins fidèle les mouvements de la tête lors de la marche. Dans six premières expériences, il était demandé aux participants stationnaires, confrontés à un flux optique simulant leur propre mouvement vers l’avant, d’indiquer quand ils pensaient avoir atteint la position d’une cible distante initialement perçue. Une expérience subséquentes s'est intéressée à déterminer si l’absence de ces oscillations jouait un rôle important dans l’estimation de la distance parcourue lorsqu’ils marchaient sur un tapis roulant. Enfin, dans une dernière expérience nous avons développé une mesure dynamique de la distance parcourue à travers l’utilisation d’une tâche demandant aux participants de pointer continuellement la position d’une cible distante initialement perçue. Dans l’ensemble, nos résultats montrent qu’un point de vue oscillant joue un rôle important dans la perception visuelle du mouvement propre et que de nombreux paramètres semblent être impliqués dans ce processus, incluant les informations visuelles et proprioceptives mais également l’aspect écologique de la marche naturelle. / When exploring their environment, humans and other animals have the ability to use many sources of information to estimate the distance they travel. Several studies have shown that optic flow is a significant cue to perceive distance travelled. Furthermore, it was found that adding various viewpoint oscillations to a purely translational optic flow, simulating forward self-motion, modulated this perception. In a series of experiments, we tested whether the perception of distance travelled was also affected by viewpoint oscillation, similar to head motion during natural walking. A first series of experiments, participants were exposed to an immersive optic flow simulating forward self-motion and they were asked to indicate when they thought they had reached the remembered position of a previously seen target. Two further experiments aimed to test whether the idiosyncrasy of viewpoint oscillations affects the perception of distance travelled in stationary observers and whether the absence of their own viewpoint oscillation played an important role in subjects’ estimates, while they were walking on a treadmill. And finally, in a last experiment we tried to develop a dynamic measure of distance travelled to a previously seen target, with a continuous pointing task method. Overall, our results show that viewpoint oscillations play an important role in visual self-motion perception and that several parameters (including visual information, proprioceptive information and ecological aspects of natural walking) seem to be involved in this process.
25

DE L'ABEILLE AU ROBOT : LA RÉGULATION DU FLUX OPTIQUE. Contrôle conjoint de vitesse et d'évitements d'obstacles latéraux pour véhicules totalement actionnés.

Serres, Julien 11 July 2008 (has links) (PDF)
Nous avons conçu un pilote automatique, dénommé LORA (Lateral Optic flow Regulation Autopilot), qui s'inspire de la vision du mouvement des insectes ailés. Il se compose de deux régulateurs de flux optique interdépendants, chacun contrôlant un degré de liberté de translation : un régulateur de flux optique bilatéral contrôle la vitesse du robot, tandis qu'un régulateur de flux optique unilatéral lui permet d'éviter les obstacles latéraux. Des expériences de simulation montrent qu'un robot totalement actionné, équipé du seul pilote automatique LORA, franchit sans collision un corridor droit, fuselé, ou même non stationnaire. Le robot n'a besoin que d'une paire d'yeux latéraux mesurant les flux optiques droit et gauche et ne fait appel à aucun autre capteur, ni de vitesse, ni de distance. LORA est destiné à équiper un aéroglisseur miniature de 0,8 kg, doté de deux yeux élémentaires (à 2 pixels) et rendu totalement actionné par l'adjonction de deux propulseurs latéraux. Nous avons identifié tous les paramètres dynamiques de ce robot avant de les inclure dans les simulations. Ce travail constitue un premier pas vers un système de guidage agile et léger pour micro-aéronefs. La genèse du pilote automatique LORA a suivi trois étapes : LORA I, LORA II et LORA III, enrichies progressivement par l'analyse parallèle du comportement d'abeilles entraînées à pénétrer dans divers corridors pour y butiner un nectar artificiel. L'enregistrement vidéo à haute résolution et l'analyse statistique de trajectoires d'abeilles dans divers environnements ont permis de mettre à jour les ressorts du système visuo-moteur sous-jacent. Ainsi notre travail remet en question l'hypothèse d'" équilibrage des flux optiques latéraux ", proposée voici 20 ans pour expliquer " la réaction de centrage " de l'abeille dans un corridor. Bien que ce comportement ait inspiré maints roboticiens dans le monde, il apparaît en fait comme un cas particulier d'un comportement beaucoup plus général de l'insecte : le suivi de paroi. Le va-et-vient permanent biologie-robotique qui a animé notre travail offre aujourd'hui des retombées dans les deux camps. Il permet de comprendre comment un insecte de 100 mg peut naviguer sans SONAR, ni RADAR, ni LIDAR, ni GPS, et offre aux véhicules autonomes la possibilité de se comporter pareillement, sans avoir à mesurer ni vitesse ni distance.
26

Facteur d'échelle visuelle pour la restitution de la perception de vitesse en simulation de conduite automobile

Colombet, Florent 13 December 2010 (has links) (PDF)
Percevoir sa vitesse est une tâche importante que le conducteur doit réaliser constamment pendant la conduite pour contrôler son véhicule. Il apparaît que plusieurs facteurs ont une influence sur la perception de la vitesse : la hauteur du point de vue, le champ de vision, le réalisme de l'environnement, mais aussi le réalisme des restitutions sonores et proprioceptives. Si certains simulateurs de conduite automobile sont suffisamment performants pour restituer le mouvement de façon satisfaisante selon tous ces critères, ce n'est pas forcément le cas de tous. Il en résulte alors une perception de la vitesse souvent sous-estimée, qui se traduit par une vitesse de conduite plus élevée que celle en conduite réelle. La validité perceptive du simulateur de conduite n'est alors plus suffisante pour certaines études de comportement du conducteur. Pour tenter de résoudre ce problème, une technique a récemment vu le jour, consistant à modifier le champ de vision géométrique tout en gardant un champ de vision constant. C'est cette technique, quantifiée par un indice défini comme un facteur d'échelle visuelle, qui est étudiée de façon plus approfondie au cours de cette thèse. Nous avons notamment étudié comment ce facteur d'échelle visuelle influence la perception de la vitesse et avons déterminé la relation linéaire qui existe entre le changement de vitesse perçue et le facteur d'échelle visuelle utilisé. Nous avons ensuite déterminé dans quelle mesure il était possible de modifier dynamiquement ce facteur d'échelle visuelle afin de l'adapter au mieux en fonction des besoins de la simulation. Les expérimentations présentées ici ont toutes été menées sur le simulateur de conduite dynamique SAAM, dont la conception, la réalisation et le réglage ont été effectués dans le cadre de cette thèse.
27

Détection et suivi d'événements de surveillance

Sharif, Md. Haidar 16 July 2010 (has links) (PDF)
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d'événements liés à la sûreté et la sécurité publique. Par ailleurs, l'incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d'une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d'abord une analyse globale du mouvement dans les régions d'intérêt de chaque image afin d'obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d'autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l'importance de l'occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d'ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d'une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d'une zone d'ombre ou en cas de lueur soudaine.
28

INFLUENCES ÉGOCENTRÉES SUR LA PERCEPTION DE L'ESPACE GÉOCENTRÉ - OBJECTIVATION AU TRAVERS DE L'ESTIMATION DU FRANCHISSEMENT D'OBSTACLES HAUTS

Bourrelly, Aurore 22 June 2011 (has links) (PDF)
Percevoir son espace d'évolution est une activité déterminante dans l'élaboration des relations spatiales que nous tissons avec notre environnement. En neurosciences comportementales, l'étude de ces relations a généralement été abordée selon deux perspectives théoriques. L'une d'elle s'attache à décrire les relations au monde au travers des processus de perception directe impliquant notamment la notion d'affordances (i.e. de possibilités d'actions naturellement offertes par l'environnement) ; tandis que d'autres s'intéressent d'avantage aux aspects cognitifs de la perception avec la mise en place de processus de représentation spatiale. Cette dernière reflète notamment l'existence d'état(s) représenté(s) qu'il est possible de décrire à travers de la combinaison d'espaces stables appelés référentiels spatiaux. L'objectif de ce travail de thèse vise à mieux comprendre la contribution du référentiel égocentré (i.e. corporel) dans la perception de l'espace géocentré (i.e. gravitaire). La question a notamment été abordée autour de deux axes de recherche interrogeant d'une part (i) l'origine de l'influence égocentrée préalablement observée dans le noir sur la perception géocentrée, et d'autre part (ii) la présence du phénomène égocentré dans un contexte visuel plus enrichi suite à l'ajout d'un flux optique. Pour ce faire quatre études centrées autour d'un paradigme d'estimation des possibilités de franchissement d'obstacles hauts ont été réalisées. Pris dans leur ensemble, les résultats expérimentaux soulignent le caractère particulièrement puissant et complexe du phénomène égocentré corporel observé sur la perception de l'espace gravitaire. Ces résultats, discutés en termes d'interpénétrabilité entre référentiels spatiaux offrent un support d'étude intéressant sur la manière dont les référentiels sont utilisés dans les processus de représentation spatiale.
29

Réalisation d'un micro-robot autonome, inspiré du contrôle de vistesse et d'évitement d'obstacles observés chez l'abeille. / Design of an autonomous micro-robot inspired from the speed control and obstacle avoidance observed on honeybees

Roubieu, Frederic 16 July 2013 (has links)
Cette thèse présente l'implémentation d'une stratégie visuelle bio-inspirée sur un aéroglisseur miniature totalement actionné, qui lui permet de naviguer dans le plan horizontal d'un tunnel inconnu. L'élaboration de ce pilote automatique, nommé LORA, fait suite aux études éthologiques menées sur l'abeille depuis ces dernières décennies et nous ont amené à énoncer le principe de la régulation du flux optique pour le contrôle du vol de croisière. Ce pilote automatique est un double régulateur de flux optique latéral constitué de deux boucles visuo-motrices interdépendantes contrôlant conjointement la vitesse d'avance et la position du robot par rapport aux obstacles sans avoir à mesurer ou estimer aucun de ces paramètres. La clé de voûte de ce système de guidage est une troisième boucle destinée à maintenir le cap grâce à un micro-gyromètre et un micro-compas magnétique permettant au robot d'effectuer des mouvements de translation qui génèrent sur son œil composé artificiel du flux optique de translation, seul dépendant du ratio vitesse/distance aux obstacles. Cet œil estime le flux optique grâce à ses deux ou quatre Détecteurs élémentaires de mouvement (total de 4 ou 8 pixels). L'aéroglisseur est alors capable de franchir sans collision, à la manière d'une abeille, divers tunnels : droit, fuselé ou présentant une pente, un virage, une absence de texture sur un mur ou même une zone non-stationnaire. Cette stratégie visuelle bio-inspirée fournit non seulement une solution de navigation élégante à destination de robots totalement actionnés mais elle permet aussi d'expliquer comment une abeille de 100mg peut naviguer sans l'aide de SONAR, RADAR, LIDAR, ou GPS. / In this work, we present for the first time a bio-inspired motion vision-based navigation strategy embedded on a miniature fully-actuated hovercraft allowing it to navigate safely on the horizontal plane of an unknown corridor. The design of this autopilot, called LORA, follows the ethological findings made on honeybees these last decades, which led us to elaborate the principle of the optic flow regulation which might be used by insects to control their flight. The bee-inspired LORA autopilot is a dual optic flow regulator which consists in two intertwined visuomotor feedback loops which control jointly the forward speed of the robot and its clearance to the obstacles. The keystone of this bio-inspired guidance system is a heading-lock system enabling the robot to move in translations and therefore experience a purely translational optic flow which depends only on the ratio speed/clearance to obstacles thanks to a micro-gyrometer and a micro-magnetic compass. The estimation of optic flow is made by a minimalist compound eye, made of two or four Elementary Motion Detectors (only 4 or 8 pixels). The hovercraft is therefore able to cross without crashing a straight or a tapered corridor, presenting a frontal sloping terrain, a bend, a textureless wall, or even a non-stationary section by automatically adapting both its forward speed and its clearance to the walls imitating the honeybee. This bio-inspired visual strategy not only provides an elegant navigation solution in an unknown environment aimed to equip fully-actuated miniature vehicles but also to explain how a 100mg honeybee can navigate with few computational ressources, i.e., without any SONAR, RADAR, LIDAR or GPS.
30

Compression vidéo basée sur l'exploitation d'un décodeur intelligent / Video compression based on smart decoder

Vo Nguyen, Dang Khoa 18 December 2015 (has links)
Cette thèse de doctorat étudie le nouveau concept de décodeur intelligent (SDec) dans lequel le décodeur est doté de la possibilité de simuler l’encodeur et est capable de mener la compétition R-D de la même manière qu’au niveau de l’encodeur. Cette technique vise à réduire la signalisation des modes et des paramètres de codage en compétition. Le schéma général de codage SDec ainsi que plusieurs applications pratiques sont proposées, suivis d’une approche en amont qui exploite l’apprentissage automatique pour le codage vidéo. Le schéma de codage SDec exploite un décodeur complexe capable de reproduire le choix de l’encodeur calculé sur des blocs de référence causaux, éliminant ainsi la nécessité de signaler les modes de codage et les paramètres associés. Plusieurs applications pratiques du schéma SDec sont testées, en utilisant différents modes de codage lors de la compétition sur les blocs de référence. Malgré un choix encore simple et limité des blocs de référence, les gains intéressants sont observés. La recherche en amont présente une méthode innovante qui permet d’exploiter davantage la capacité de traitement d’un décodeur. Les techniques d’apprentissage automatique sont exploitées pour but de réduire la signalisation. Les applications pratiques sont données, utilisant un classificateur basé sur les machines à vecteurs de support pour prédire les modes de codage d’un bloc. La classification des blocs utilise des descripteurs causaux qui sont formés à partir de différents types d’histogrammes. Des gains significatifs en débit sont obtenus, confirmant ainsi le potentiel de l’approche. / This Ph.D. thesis studies the novel concept of Smart Decoder (SDec) where the decoder is given the ability to simulate the encoder and is able to conduct the R-D competition similarly as in the encoder. The proposed technique aims to reduce the signaling of competing coding modes and parameters. The general SDec coding scheme and several practical applications are proposed, followed by a long-term approach exploiting machine learning concept in video coding. The SDec coding scheme exploits a complex decoder able to reproduce the choice of the encoder based on causal references, eliminating thus the need to signal coding modes and associated parameters. Several practical applications of the general outline of the SDec scheme are tested, using different coding modes during the competition on the reference blocs. Despite the choice for the SDec reference block being still simple and limited, interesting gains are observed. The long-term research presents an innovative method that further makes use of the processing capacity of the decoder. Machine learning techniques are exploited in video coding with the purpose of reducing the signaling overhead. Practical applications are given, using a classifier based on support vector machine to predict coding modes of a block. The block classification uses causal descriptors which consist of different types of histograms. Significant bit rate savings are obtained, which confirms the potential of the approach.

Page generated in 0.4412 seconds