• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 214
  • 111
  • 38
  • 3
  • 1
  • Tagged with
  • 383
  • 201
  • 84
  • 78
  • 58
  • 53
  • 53
  • 52
  • 50
  • 43
  • 42
  • 41
  • 41
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Etudes comportementales et neurobiologiques de l'apprentissage visuel chez l'abeille (Apis mellifera) en réalité virtuelle / Behavioral and neurobiological studies of visual learning in honey bees (Apis mellifera) in virtual reality

Buatois, Alexis 17 September 2018 (has links)
Les abeilles en libre vol montrent des capacités cognitives visuelles remarquables mais les bases neurales sous-jacentes ne peuvent pas être étudiées chez des insectes en vol. À l'inverse, le cerveau des abeilles immobilisées est accessible mais ne permet pas d'explorer l'apprentissage visuel. Pour dépasser cette limite, notre objectif a été d'établir un dispositif de réalité virtuelle pour pouvoir tester l'apprentissage visuel sur des abeilles attachées. Dans un premier temps, les abeilles ont été testées sur leur capacité à discriminer des couleurs en s'appuyant sur les renforcements positifs ou négatifs qui leur étaient associés. Ces expériences ont permis de mettre en évidence le rôle de la vision active dans la réalité virtuelle et l'importance de la phototaxie dans ce type de système. Grâce à ce dispositif, un apprentissage non élémentaire en réalité virtuelle, le patterning négatif, a été mis en place. Ainsi il a été montré que les abeilles étaient capables de résoudre cette tache en réalité virtuelle malgré sa complexité. Enfin, en s'appuyant sur le protocole de discrimination de couleurs, l'activation du cerveau a été étudiée au cours d'un test de mémoire des couleurs en analysant l'expression de gènes considérés comme des marqueurs de l'activité neurale. Les résultats de cette thèse, fournissant deux protocoles de réalité virtuelle solides pour étudier les apprentissages visuels élémentaires et non élémentaires, constituent une avancée considérable vers la possibilité de comprendre les bases neurales sous-jacentes à ces apprentissages chez l'abeille qu'ils soient simples ou complexes. / Free flying bees are known for their impressive visual cognition abilities, but the neural bases underlying those are poorly studied because of the difficulty to explore the brain in a flying insect. Conversely, it is possible to have access to the brain with tethered bees but, until now, no studies explored visual learning. To bypass this limitation, our aim was to establish a virtual reality device to test visual learning in tethered bees. First, bees were tested for their abilities to learn to discriminate colors according to the reinforcement associated to each of them. These experiments allowed to highlight the role of the active vision in virtual reality and the importance of phototaxis in this kind of device. Driven by these good results, we explored the non- elementary visual learning in bees and, more specifically, the negative patterning. The results suggest that bees were able to resolve this task in virtual reality despite its complexity. Finally, using the protocol of color discrimination, the brain activation has been explored during a color memory recall thanks to a quantification of immediate early genes considered as neural markers. This thesis provides two solid virtual reality protocols to study elementary and non-elementary visual learning in honey bees. This constitutes a huge advance and will allow to go further towards the understanding of the neural bases of simple and complex visual learning.
222

Reconstruction 3D de l'environnement dynamique d'un véhicule à l'aide d'un système multi-caméras hétérogène en stéréo wide-baseline / 3D reconstruction of the dynamic environment surrounding a vehicle using a heterogeneous multi-camera system in wide-baseline stereo

Mennillo, Laurent 05 June 2019 (has links)
Cette thèse a été réalisée dans le secteur de l'industrie automobile, en collaboration avec le Groupe Renault et concerne en particulier le développement de systèmes d'aide à la conduite avancés et de véhicules autonomes. Les progrès réalisés par la communauté scientifique durant les dernières décennies, dans les domaines de l'informatique et de la robotique notamment, ont été si importants qu'ils permettent aujourd'hui la mise en application de systèmes complexes au sein des véhicules. Ces systèmes visent dans un premier temps à réduire les risques inhérents à la conduite en assistant les conducteurs, puis dans un second temps à offrir des moyens de transport entièrement autonomes. Les méthodes de SLAM multi-objets actuellement intégrées au sein de ces véhicules reposent pour majeure partie sur l'utilisation de capteurs embarqués très performants tels que des télémètres laser, au coût relativement élevé. Les caméras numériques en revanche, de par leur coût largement inférieur, commencent à se démocratiser sur certains véhicules de grande série et assurent généralement des fonctions d'assistance à la conduite, pour l'aide au parking ou le freinage d'urgence, par exemple. En outre, cette implantation plus courante permet également d'envisager leur utilisation afin de reconstruire l'environnement dynamique proche des véhicules en trois dimensions. D'un point de vue scientifique, les techniques de SLAM visuel multi-objets existantes peuvent être regroupées en deux catégories de méthodes. La première catégorie et plus ancienne historiquement concerne les méthodes stéréo, faisant usage de plusieurs caméras à champs recouvrants afin de reconstruire la scène dynamique observée. La plupart reposent en général sur l'utilisation de paires stéréo identiques et placées à faible distance l'une de l'autre, ce qui permet un appariement dense des points d'intérêt dans les images et l'estimation de cartes de disparités utilisées lors de la segmentation du mouvement des points reconstruits. L'autre catégorie de méthodes, dites monoculaires, ne font usage que d'une unique caméra lors du processus de reconstruction. Cela implique la compensation du mouvement propre du système d'acquisition lors de l'estimation du mouvement des autres objets mobiles de la scène de manière indépendante. Plus difficiles, ces méthodes posent plusieurs problèmes, notamment le partitionnement de l'espace de départ en plusieurs sous-espaces représentant les mouvements individuels de chaque objet mobile, mais aussi le problème d'estimation de l'échelle relative de reconstruction de ces objets lors de leur agrégation au sein de la scène statique. La problématique industrielle de cette thèse, consistant en la réutilisation des systèmes multi-caméras déjà implantés au sein des véhicules, majoritairement composés d'un caméra frontale et de caméras surround équipées d'objectifs très grand angle, a donné lieu au développement d'une méthode de reconstruction multi-objets adaptée aux systèmes multi-caméras hétérogènes en stéréo wide-baseline. Cette méthode est incrémentale et permet la reconstruction de points mobiles éparses, grâce notamment à plusieurs contraintes géométriques de segmentation des points reconstruits ainsi que de leur trajectoire. Enfin, une évaluation quantitative et qualitative des performances de la méthode a été menée sur deux jeux de données distincts, dont un a été développé durant ces travaux afin de présenter des caractéristiques similaires aux systèmes hétérogènes existants. / This Ph.D. thesis, which has been carried out in the automotive industry in association with Renault Group, mainly focuses on the development of advanced driver-assistance systems and autonomous vehicles. The progress made by the scientific community during the last decades in the fields of computer science and robotics has been so important that it now enables the implementation of complex embedded systems in vehicles. These systems, primarily designed to provide assistance in simple driving scenarios and emergencies, now aim to offer fully autonomous transport. Multibody SLAM methods currently used in autonomous vehicles often rely on high-performance and expensive onboard sensors such as LIDAR systems. On the other hand, digital video cameras are much cheaper, which has led to their increased use in newer vehicles to provide driving assistance functions, such as parking assistance or emergency braking. Furthermore, this relatively common implementation now allows to consider their use in order to reconstruct the dynamic environment surrounding a vehicle in three dimensions. From a scientific point of view, existing multibody visual SLAM techniques can be divided into two categories of methods. The first and oldest category concerns stereo methods, which use several cameras with overlapping fields of view in order to reconstruct the observed dynamic scene. Most of these methods use identical stereo pairs in short baseline, which allows for the dense matching of feature points to estimate disparity maps that are then used to compute the motions of the scene. The other category concerns monocular methods, which only use one camera during the reconstruction process, meaning that they have to compensate for the ego-motion of the acquisition system in order to estimate the motion of other objects. These methods are more difficult in that they have to address several additional problems, such as motion segmentation, which consists in clustering the initial data into separate subspaces representing the individual movement of each object, but also the problem of the relative scale estimation of these objects before their aggregation within the static scene. The industrial motive for this work lies in the use of existing multi-camera systems already present in actual vehicles to perform dynamic scene reconstruction. These systems, being mostly composed of a front camera accompanied by several surround fisheye cameras in wide-baseline stereo, has led to the development of a multibody reconstruction method dedicated to such heterogeneous systems. The proposed method is incremental and allows for the reconstruction of sparse mobile points as well as their trajectory using several geometric constraints. Finally, a quantitative and qualitative evaluation conducted on two separate datasets, one of which was developed during this thesis in order to present characteristics similar to existing multi-camera systems, is provided.
223

Descripteurs de Fourier inspirés de la structure du cortex visuel primaire humain : Application à la reconnaissance de navires dans le cadre de la surveillance maritime / Fourier descriptors inspired by the structure of the human primary visual cortex : Application to vessels recognition in the framework of maritime surveillance.

Bohi, Amine 22 May 2017 (has links)
Dans cette thèse, nous développons une approche supervisée de reconnaissance d’objets basée sur l’utilisation de nouveaux descripteurs d’images globaux inspirés du modèle du cortex visuel humain primaire V1 en tant que groupe de roto-translations semi-discrètes SE (2,N)=R² x ZN produit semi-direct entre R² et ZN. La méthode proposée est basée sur des descripteurs de Fourier généralisés et rotationnels définis sur le groupe SE (2,N), qui sont invariants aux transformations géométriques (translations, et rotations). De plus, nous montrons que ces descripteur de Fourier sont faiblement complets, dans le sens qu’ils permettent de discriminer sur un ensemble ouvert et dense L² (SE(2,N)) de fonctions à support compact, donc distinguer entre des images réelles. Ces descripteurs sont ensuite utilisés pour alimenter un classifieur de type SVM dans le cadre de la reconnaissance d’objets. Nous avons mené une séries d’expérimentations dans le but d’évaluer notre méthode sur les bases de visages RL, CVL et ORL et sur la base d’images d’objets variés COIL-100, et de comparer ses performances à celles des méthodes basées sur des descripteurs globaux et locaux. Les résultats obtenus ont montré que notre approche est en mesure de concurrencer de nombreuses techniques de reconnaissance d’objets existantes et de surpasser de nombreuse autres. Ces résultats ont également montré que notre méthode est robuste aux bruits. Enfin, nous avons employé la technique proposée pour reconnaître des navires dans un contexte de surveillance maritime. / In this thesis, we develop a supervised object recognition method using new global image descriptors inspired by the model of the human primary visual cortex V1. Mathematically speaking, the latter is modeled as the semi-discrete roto-translation group SE (2,N)=R² x ZN semi-direct product between R² and ZN. Therefore, our technique is based on generalized and rotational Fourier descriptors defined in SE (2,N) , and which are invariant to natural geometric transformations (translations, and rotations). Furthermore, we show that such Fourier descriptors are weakly complete, in the sense that they allow to distinguish over an open and dense set of compactly supported functions in L² (SE(2,N)) , hence between real-world images. These descriptors are later used in order to feed a Support Vector Machine (SVM) classifier for object recognition purposes. We have conducted a series of experiments aiming both at evaluating and comparing the performances of our method against existing both local - and global - descriptor based state of the art techniques, using the RL, the CVL, and the ORL face databases, and the COIL-100 image database (containing various types of objects). The obtained results have demonstrated that our approach was able to compete with many existing state of the art object recognition techniques, and to outperform many others. These results have also shown that our method is robust to noise. Finally, we have applied the proposed method on vessels recognition in the framework of maritime surveillance.
224

Exploration par IRM fonctionnelle de la perception visuelle des formes tridimensionnelles ; dessin de paradigmes d'acquisition et outils d'analyse appliqués au domaine de la vision

Paradis, Anne-Lise 26 March 2001 (has links) (PDF)
Nous avons étudié, chez l'homme, les bases neurales de la perception du relief à partir du mouvement visuel, en utilisant l'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Au cours de ce travail, l'élaboration et l'analyse des protocoles expérimentaux en imagerie sont apparues comme des problèmes à part entière, très liés aux questions neurophysiologiques posées par l'expérimentateur. Dans ce document, nous introduisons la notion de cartographie fonctionnelle afin de mettre en évidence le rôle de l'imagerie fonctionnelle en neurosciences. Nous détaillons ensuite le contexte théorique et expérimental de la perception visuelle du mouvement et des formes. En ce qui concerne les méthodes, nous présentons brièvement la technique d'IRMf. Nous expliquons également les principes du dessin de protocole en imagerie, notamment des protocoles dits événementiels, et nous exposons les méthodes d'analyse du signal IRMf utilisées. Nous décrivons enfin plusieurs expériences: l'une d'elles a été réalisée spécifiquement pour la mise en oeuvre de l'approche événementielle en IRMf; les autres sont des applications dédiées à l'étude du système visuel, présentées dans une perspective méthodologique. Trois séries d'expériences ont été réalisées pour explorer la perception des formes 3D à partir du mouvement. Les deux premières ont été effectuées en vision passive, en présentant aux sujets plusieurs stimuli de mouvement visuel, contenant ou non une information 3D. La troisième fait intervenir une tâche dirigeant l'attention des sujets vers diverses caractéristiques d'une surface 3D en mouvement. La richesse des thèmes abordés au cours de ce travail nous a notamment permis de nous interroger sur la notion de hiérarchie de traitement visuel, la ségrégation des voies dorsale et ventrale et l'influence de l'attention sur l'activité corticale.
225

DE LA PERCEPTION LOCALE DES DISTORSIONS DE CODAGE A L'APPRECIATION GLOBALE DE LA QUALITE VISUELLE DES IMAGES ET VIDEOS. APPORT DE L'ATTENTION VISUELLE DANS LE JUGEMENT DE QUALITE

Ninassi, Alexandre 17 March 2009 (has links) (PDF)
Cette étude traite de l'évaluation locale des distorsions perceptuelles, de l'évaluation globale de la qualité visuelle, et de l'influence de l'attention visuelle en évaluation de qualité. Afin d'évaluer localement les distorsions dans les images, nous avons simplifié un modèle existant du système visuel humain en utilisant la transformée en ondelettes et nous avons proposé une meilleure modélisation des effets de masquage par la prise en compte du masquage semi-local. A partir de ces modèles, nous avons conçu et validé des métriques de qualité d'images. Pour les vidéos, nous avons conçu une méthode d'évaluation locale des distorsions temporelles reposant sur un cumul temporel court terme des distorsions spatiales. Celui-ci simule l'évaluation des distorsions via des mécanismes de sélection de l'attention visuelle. Une métrique de qualité s'appuyant sur cette méthode a été conçue et validée. Celle-ci est basée sur un cumul temporel long terme incorporant un comportement asymétrique et un effet de saturation perceptuelle. L'influence de l'attention visuelle sur l'évaluation de la qualité a été analysée à partir des données issues de tests oculométriques réalisés sur des images et sur des vidéos, en exploration libre et en tâche de qualité. Les résultats ont confirmé, entre autres, l'influence de la tâche de qualité sur le déploiement de l'attention visuelle. L'impact de l'attention visuelle sur l'évaluation objective de la qualité a également été étudié en utilisant l'information de saillance réelle. Nous avons montré qu'une simple pondération linéaire des distorsions par l'attention visuelle ne permettait pas d'améliorer clairement les performances des métriques de qualité.
226

Contributions à l'intégration vision robotique : calibrage, localisation et asservissement

Dornaika, Fadi 25 December 1995 (has links) (PDF)
Cette thèse concerne principalement l'intégration des fonctionnalités d'un système de vision avec celles d'un système robotique. Cette intégration apporte beaucoup d'avantages pour l'interaction d'un robot avec son environnement. Dans un premier temps, nous nous intéressons aux aspects de modélisation. Deux sujets liés à cette modélisation ont été traités : <br /> i) le calibrage caméra/pince et <br /> ii) la localisation caméra/objet. <br /> Pour le premier, nous proposons une méthode de calibrage non linéaire qui s'avère robuste en présence des erreurs de mesure ; pour le second, nous proposons une méthode linéaire très rapide et bien adaptée aux applications temps-réel puisqu'elle est basée sur des approximations successives par une projection para-perspective.<br /> Dans un deuxième temps, nous nous intéressons au contrôle visuel de robots. Nous adaptons la méthode "commande référencée capteur" à une caméra indépendante du robot asservi. De plus, dans le cas d'un positionnement relatif, nous montrons que le calcul de la position de référence ne dépend pas de l'estimation explicite des paramètres intrinsèques et extrinsèques de la caméra. Pour une tâche donnée, le problème de la commande peut alors se traduire sous la forme d'une régulation d'une erreur dans l'image. Nous montrons que la localisation temps-réel caméra/robot améliore le comportement dynamique de l'asservissement. Cette méthode de contrôle a été expérimentée dans la réalisation de tâches de saisie avec un robot manipulateur à six degrés de liberté. Toutes les méthodes proposées sont validées avec des mesures réelles et simulées.
227

Analyse de séquences d'images à cadence vidéo pour l'asservissement d'une caméra embarquée sur un drone

Louvat, Benoit 05 February 2008 (has links) (PDF)
Dans cette thèse, nous développons un système d'asservissement visuel pour une caméra montée sur une tourelle commandable en pan et tilt et embarquée sur un drone. Ceci afin de réaliser des tâches telles que le suivi d'objets fixes et quelconques au sol quels que soient les mouvements du drone. Dans une première partie, un algorithme d'analyse d'image est proposé. Il est basé sur une estimation globale/locale permettant d'estimer la position de l'objet. Dans une seconde partie, une loi de commande classique fonctionnant avec une double boucle d'asservissement est proposée. Pour diminuer le temps de réponse du système, une nouvelle loi de commande sur-échantillonnée utilisant les résultats intermédiaires de l'analyse d'image est proposée. Nous nous intéressons aussi aux problèmes de non-linéarité du système et proposons une solution basée sur un contrôleur LQR. Des simulations et des expérimentations en conditions réelles montrent la validité de notre approche.
228

Conception et commande de systèmes d'alimentation en composants de petites tailles pour micro-usine d'assemblage de haute précision.

Paris, Mickaël 19 December 2008 (has links) (PDF)
L'alimentation en composants est un problème majeur dans la conception des systèmes de production et plus particulièrement d'assemblage. Un système d'alimentation doit garantir la position et l'orientation des composants qu'il fournit au système d'assemblage, quelle que soit la taille des composants. En revanche, le niveau de précision sera généralement d'autant plus important que les composants sont petits. Nos travaux ont été réalisés dans le contexte de l'alimentation en composants de taille millimétrique à microscopique avec des objectifs de modularité et de haute précision de positionnement. La première contribution de la thèse a consisté à élaborer une stratégie pour l'alimentation de haute précision en composants millimétriques pour une architecture ouverte, flexible et standardisée, proposée par un projet européen EUPASS (Evolvable Ultra Precision ASembly System). Un système standard a ainsi été développé. Il est modulaire, reconfigurable pour différents types de minicomposants et permet leur maintien micrométrique. Sur la base de ces travaux, nous avons étendu notre étude aux systèmes de micro-assemblage (microusine). L'objectif était de déplacer dans un plan des micro-objets jusqu'à une position donnée. L'idée retenue se fonde sur l'utilisation des vibrations pour entraîner ces micro-objets par inertie. Il a donc été nécessaire de caractériser les interactions entre la surface du système d'alimentation et la surface du micro-objet. Pour cela nous avons élaboré une méthode pour évaluer directement la force concernée qui est la force de friction. Le contrôle des vibrations du système a ensuite été conçu. Le pas de déplacement d'un micro-objet en fonction de ses caractéristiques est alors maîtrisé. Enfin, une boucle d'asservissement permet de contrôler le déplacement des micro-objets jusqu'à une position consigne.
229

Système visuel cortical de bas niveau et perception du mouvement: une caractérisation par IRM

Wotawa, Nicolas 03 April 2006 (has links) (PDF)
L´évolution des technologies d´imagerie cérébrale alliée aux développement d´algorithmes spécifiques de traitement d´images permettent d´améliorer nos connaissances sur le fonctionnement du cerveau, en particulier s´agissant de la perception visuelle. L´objectif de ce travail de thèse est de contribuer à la compréhension des aires corticales impliquées dans la perception visuelle du mouvement chez l´homme, en analysant l´information des signaux de différentes modalités complémentaires d´Imagerie par Resonance Magnétique (IRM).<br /><br />Une première partie concerne l´identification individuelle des aires visuelles de bas niveau. Nous détaillons la méthode de cartographie rétinotopique par IRM fonctionnelle (IRMf) que nous avons developpée, depuis la conception des stimuli visuels à l´analyse anatomo-fonctionnelle finale. Par ailleurs, une localisation fonctionnelle du complexe hMT/V5+ est obtenue par un paradigme en bloc. Ces méthodes, optimisées suivant certains paramètres de la stimulation, permettent d´extraire pour tout individu des Régions d´Intérêt homogènes.<br /><br />Dans un deuxième temps, nous proposons une caractérisation fonctionnelle des différentes aires visuelles primaires. En se fondant sur le paradigme récent d´IRM d´adaptation qui permet d´étudier la sensibilité d´une région cérébrale à des variations quantitatives d´un paramètre de la stimulation, nous démontrons une différenciation de la sensibilité à la direction du mouvement dans les aires etudiées.<br /><br />Enfin, nous décrivons une expérience combinant les modalités d´IRMf et d´IRM de diffusion (IRMd) dans le but d´étudier la connectivité anatomique au sein du cortex visuel primaire. Cette caractérisation, établie en s´appuyant sur des algorithmes récents de cartographie des fibres de matière blanche, donne des indices sur le réseau d´aires notamment impliquées dans le traitement du mouvement visuel.
230

Réseaux neuromimétiques, modularité et statistiques : estimation du mouvement pour l'asservissement visuel de robots

Wira, Patrice 07 January 2002 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le domaine de l'utilisation de la vision pour la réalisation de tâches robotiques et concerne plus particulièrement les aspects de poursuite de cible par asservissement visuel. <br />Nous nous sommes intéressé au cas d'objets mobiles, et plus particulièrement à l'estimation du mouvement de ces objets, nécessaire pour une exécution satisfaisante des tâches de poursuite. La qualité de poursuite est en effet grandement améliorée grâce à une estimation robuste du mouvement. Pour réaliser l'estimation, nous proposons une approche nouvelle, basée sur l'aspect adaptatif du filtrage de Kalman. Contrairement au filtre classique de Kalman, ce filtre n'utilise aucun modèle ni connaissance a priori. La représentation d'état est adaptée en permanence en fonction des observations courantes pour représenter au mieux la dynamique du système. Il s'agit d'une approche modulaire à modèle multiple. Plusieurs filtres sont utilisés et la probabilité pour chacun de calculer l'estimation optimale est déterminée par apprentissage. Un réseau de neurones, sur cette base statistique, supervise l'ensemble des filtres et permet de compenser le caractère non stationnaire des mouvements de l'objet mobile. <br />Les informations visuelles estimées servent à contrôler les déplacements du robot. Des extensions de la carte auto-organisatrice de Kohonen à sorties supervisées servent à approximer la transformation sensori-motrice du système robot-vision. La relation apprise se trouve dès lors à l'origine de la loi de commande du robot. L'apprentissage est entièrement réalisé en contexte, en exploitant les corrélations sensori-motrices durant les mouvements des robots. <br />Les méthodes présentées dans cette thèse ont été validées en simulation et par des expérimentations réalisées sur une plate-forme robotique réelle.

Page generated in 0.0272 seconds