• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 973
  • 347
  • 113
  • 15
  • 10
  • 8
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1552
  • 757
  • 275
  • 260
  • 241
  • 235
  • 231
  • 169
  • 163
  • 155
  • 151
  • 148
  • 141
  • 132
  • 123
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Robustness of multimodal 3D object detection using deep learning approach for autonomous vehicles / Robustness of multimodal 3D object detection using deep learning approach fo autonomous vehicles

Ramezani, Pooya 27 January 2024 (has links)
Dans cette thèse, nous étudions la robustesse d’un modèle multimodal de détection d’objets en 3D dans le contexte de véhicules autonomes. Les véhicules autonomes doivent détecter et localiser avec précision les piétons et les autres véhicules dans leur environnement 3D afin de conduire sur les routes en toute sécurité. La robustesse est l’un des aspects les plus importants d’un algorithme dans le problème de la perception 3D pour véhicules autonomes. C’est pourquoi, dans cette thèse, nous avons proposé une méthode pour évaluer la robustesse d’un modèle de détecteur d’objets en 3D. À cette fin, nous avons formé un détecteur d’objets 3D multimodal représentatif sur trois ensembles de données différents et nous avons effectué des tests sur des ensembles de données qui ont été construits avec précision pour démontrer la robustesse du modèle formé dans diverses conditions météorologiques et de luminosité. Notre méthode utilise deux approches différentes pour construire les ensembles de données proposés afin d’évaluer la robustesse. Dans une approche, nous avons utilisé des images artificiellement corrompues et dans l’autre, nous avons utilisé les images réelles dans des conditions météorologiques et de luminosité extrêmes. Afin de détecter des objets tels que des voitures et des piétons dans les scènes de circulation, le modèle multimodal s’appuie sur des images et des nuages de points 3D. Les approches multimodales pour la détection d’objets en 3D exploitent différents capteurs tels que des caméras et des détecteurs de distance pour détecter les objets d’intérêt dans l’environnement. Nous avons exploité trois ensembles de données bien connus dans le domaine de la conduite autonome, à savoir KITTI, nuScenes et Waymo. Nous avons mené des expériences approfondies pour étudier la méthode proposée afin d’évaluer la robustesse du modèle et nous avons fourni des résultats quantitatifs et qualitatifs. Nous avons observé que la méthode que nous proposons peut mesurer efficacement la robustesse du modèle. / In this thesis, we study the robustness of a multimodal 3D object detection model in the context of autonomous vehicles. Self-driving cars need to accurately detect and localize pedestrians and other vehicles in their 3D surrounding environment to drive on the roads safely. Robustness is one of the most critical aspects of an algorithm in the self-driving car 3D perception problem. Therefore, in this work, we proposed a method to evaluate a 3D object detector’s robustness. To this end, we have trained a representative multimodal 3D object detector on three different datasets. Afterward, we evaluated the trained model on datasets that we have proposed and made to assess the robustness of the trained models in diverse weather and lighting conditions. Our method uses two different approaches for building the proposed datasets for evaluating the robustness. In one approach, we used artificially corrupted images, and in the other one, we used the real images captured in diverse weather and lighting conditions. To detect objects such as cars and pedestrians in the traffic scenes, the multimodal model relies on images and 3D point clouds. Multimodal approaches for 3D object detection exploit different sensors such as camera and range detectors for detecting the objects of interest in the surrounding environment. We leveraged three well-known datasets in the domain of autonomous driving consist of KITTI, nuScenes, and Waymo. We conducted extensive experiments to investigate the proposed method for evaluating the model’s robustness and provided quantitative and qualitative results. We observed that our proposed method can measure the robustness of the model effectively.
112

Examen des liens entre la qualité de la relation et la valeur accordée aux marques de reconnaissance reçues au travail

Daoust, Julie January 2012 (has links)
Le monde du travail est en constante transformation et les entreprises doivent mettre des moyens en place pour demeurer compétitives. Parmi ceux-ci, on retrouve l'application de programmes de reconnaissance. De nombreuses recherches ont démontré l'efficacité de la reconnaissance à plusieurs niveaux pour l'organisation. La reconnaissance peut provenir de différentes sources, dont le supérieur immédiat qui joue un rôle prépondérant à cet égard. Celui-ci entretient une relation hiérarchique avec ses employés. Dans la documentation scientifique, la reconnaissance n'a pas été mise en lien avec la qualité de cette relation. Ainsi, l'objectif de la présente recherche est de déterminer dans quelle mesure la valeur accordée aux marques de reconnaissance reçues est influencée par la qualité de la relation entre celui qui émet les marques de reconnaissance et son destinataire. L'indicateur retenu pour mesurer la qualité de la relation est la confiance. Or, pour répondre à l'objectif de recherche, un questionnaire contenant un instrument portant sur la confiance puis un instrument sur les pratiques de reconnaissance a été distribué électroniquement à un échantillon composé de travailleurs d'organisations publiques, privées ou communautaires (N=203). Une analyse de régression simple a été conduite afin de vérifier le lien de prédiction entre la confiance et la valeur accordée aux marques de reconnaissance reçues. Un lien faible mais positif entre les deux variables est ressorti de cette analyse. Un deuxième objectif de la recherche était de déterminer lesquels des différents facteurs de la confiance avaient le plus d'influence sur la valeur accordée aux marques de reconnaissance reçues. Les postulats de l'analyse de régression multiple n'étant pas tous respectés, il n'a pas été possible de répondre à cet objectif.
113

Visuo-Haptic recognition of daily-life objects : a contribution to the data scarcity problem / Reconnaissance visio-haptique des objets de la vie quotidienne : à partir de peu de données d'entraînement

Abderrahmane, Zineb 29 November 2018 (has links)
Il est important pour les robots de pouvoir reconnaître les objets rencontrés dans la vie quotidienne afin d’assurer leur autonomie. De nos jours, les robots sont équipés de capteurs sophistiqués permettant d’imiter le sens humain du toucher. C’est ce qui permet aux robots interagissant avec les objets de percevoir les propriétés (telles la texture, la rigidité et la matière) nécessaires pour leur reconnaissance. Dans cette thèse, notre but est d’exploiter les données haptiques issues de l’interaction robot-objet afin de reconnaître les objets de la vie quotidienne, et cela en utilisant les algorithmes d’apprentissage automatique. Le problème qui se pose est la difficulté de collecter suffisamment de données haptiques afin d’entraîner les algorithmes d’apprentissage supervisé sur tous les objets que le robot doit reconnaître. En effet, les objets de la vie quotidienne sont nombreux et l’interaction physique entre le robot et chaque objet pour la collection des données prend beaucoup de temps et d’efforts. Pour traiter ce problème, nous développons un système de reconnaissance haptique permettant de reconnaître des objets à partir d'aucune, de une seule, ou de plusieurs données d’entraînement. Enfin, nous intégrons la vision afin d’améliorer la reconnaissance d'objets lorsque le robot est équipé de caméras. / Recognizing surrounding objects is an important skill for the autonomy of robots performing in daily-life. Nowadays robots are equipped with sophisticated sensors imitating the human sense of touch. This allows the recognition of an object based on information ensuing from robot-object physical interaction. Such information can include the object texture, compliance and material. In this thesis, we exploit haptic data to perform haptic recognition of daily life objects using machine learning techniques. The main challenge faced in our work is the difficulty of collecting a fair amount of haptic training data for all daily-life objects. This is due to the continuously growing number of objects and to the effort and time needed by the robot to physically interact with each object for data collection. We solve this problem by developing a haptic recognition framework capable of performing Zero-shot, One-shot and Multi-shot Learning. We also extend our framework by integrating vision to enhance the robot’s recognition performance, whenever such sense is available.
114

Reconnaissance de catégories d'objets et d'instances d'objets à l'aide de représentations locales

Nowak, Eric 17 March 2008 (has links) (PDF)
La reconnaissance d'objets est l'un des domaines d'étude les plus actifs de la vision par ordinateur. Il faut distinguer la reconnaissance de catégories d'objets génériques (une voiture en général, un piéton en général) et la reconnaissance d'instances d'objets particuliers (la voiture de M. Dupont, M. Dupont lui-même). Cette thèse aborde les deux sujets. Nous utilisons pour cela des représentations d'objets par parties, ce qui signifie que l'image à analyser n'est pas considérée dans son ensemble de manière rigide, mais plutôt comme un ensemble de régions locales, ce qui apporte une grande robustesse à la reconnaissance. Nous nous intéressons spécifiquement à la reconnaissance d'objets décrits par sacs-demots. Cela signifie que les relations géométriques entre les régions locales décrivant une image sont ignorées. Nous étudions en particulier l'influence des différentes composantes de la classification d'images par sac-de-mots, et nous montrons que le facteur le plus influent est la quantité de régions locales sélectionnées, et pour cette raison nous proposons une sélection aléatoire et en grande quantité de régions locales dans les images à décrire. Dans le contexte de la thèse CIFRE effectuée en partenariat avec l'INRIA et Bertin Technologies, nous analysons la performance des méthodes sac-de-mots pour la reconnaissance des véhicules militaires en imagerie infra-rouge. Nous montrons que les paramètres algorithmiques se comportent comme en imagerie visible. Nous effectuons aussi une étude des paramètres opérationnels, telle que la distance cible-caméra, et montrons que les paramètres sensibles sont les occultations et la présence de fond texturé quand les cibles sont détourées avec une faible précision. Nous étudions aussi le compromis entre performance et temps de calcul, et proposons une méthode de sélection de primitives adaptées aux classifieurs hiérarchiquesmulti-classes, qui fournissent un meilleur compromis performance / temps de calcul que la selection de primitives pour classifieurs plats. Les trois études précédentes traitent de la reconnaissance de catégories d'objets. Nous nous intéressons aussi à la reconnaissance d'instances d'objets, et proposons une mesure de similarité destinée à des instances d'objets jamais vus lors d'une phase d'apprentissage. Cette mesure est basée sur la quantification par des arbres extrêmement aléatoires de paires de régions locales correspondantes sélectionnées dans les deux images à comparer. Toutes ces études sont validées par des expérimentations importantes sur des bases de données publiques, et nous obtenons à chaque fois des résultats aussi bons, sinon meilleurs, que ceux de l'état de l'art.
115

Détection de textes dans des images issues d'un flux vidéo pour l'indexation sémantique

Wolf, Christian Jolion, Jean-Michel January 2005 (has links)
Thèse doctorat : Informatique : Villeurbanne, INSA : 2003. / Thèse rédigée en anglais. Introduction et conclusion générale en français. En 2ème partie, choix d'articles en français avec résumés, mots-clef et réf. bibliogr. Titre provenant de l'écran-titre. Bibliogr. p. 147-154. Publications de l'auteur p. 155-157.
116

Combinaison d'approches neuronales et de connaissances linguistiques pour la reconnaissance de texte dans les documents multimédias

Elagouni, Khaoula 28 May 2013 (has links) (PDF)
Les travaux de cette thèse portent sur la reconnaissance des indices textuels dans les images et les vidéos. Dans ce cadre, nous avons conçu des prototypes d'OCR (optical character recognition) capables de reconnaître tant des textes incrustés que des textes de scène acquis n'importe où au sein d'images ou de vidéos. Nous nous sommes intéressée à la définition d'approches robustes à la variabilité des textes et aux conditions d'acquisition. Plus précisément, nous avons proposé deux types de méthodes dédiées à la reconnaissance de texte : - une approche fondée sur une segmentation en caractères qui recherche des séparations non linéaires entre les caractères adaptées à la morphologie de ces derniers ; - deux approches se passant de la segmentation en intégrant un processus de scanning multi-échelles ; la première utilise un modèle de graphe pour reconnaître les textes tandis que la seconde intègre un modèle connexionniste récurrent spécifiquement développé pour gérer les contraintes spatiales entre les caractères.Outre les originalités de chacune des approches, deux contributions supplémentaires de ce travail résident dans la définition d'une reconnaissance de caractères fondée sur un modèle de classification neuronale et l'intégration de certaines connaissances linguistiques permettant de tirer profit du contexte lexical. Les différentes méthodes conçues ont été évaluées sur deux bases de documents : une base de textes incrustés dans des vidéos et une base publique de textes de scène. Les expérimentations ont permis de montrer la robustesse des approches et de comparer leurs performances à celles de l'état de l'art, mettant en évidence leurs avantages et leurs limites.
117

Organizational concepts for the sensor-to-shooter world the impact of real-time information on airpower targeting /

Chapman, William G. January 1900 (has links)
Thesis--School of Advanced Air Power Studies, 1996. / Shipping list no.: 98-0921-M. "May 1997." Includes bibliographical references. Also available via Internet from the Air University Press web site. Address as of 10/9/03: http://aupress.au.af.mil/SAAS%5FTheses/Chapman/chapman.pdf; current access is available via PURL.
118

Étude et réalisation d'un extracteur rapide de caractéristiques d'image vidéo.

Rakhodai, Issa, January 1900 (has links)
Th. doct.-ing.--Électronique, électrotechn., autom.--Toulouse--I.N.P., 1979. N°: 68.
119

Analyse et interprétation d'images à l'usage des personnes non-voyantes : application à la génération automatique d'images en relief à partir d'équipements banalisés / Analysis and interpretation of images for use by blind people : application to the automatic generation of relief images from commoditized equipment

Chen, Yong 27 November 2015 (has links)
L’information visuelle est une source d’information très riche à laquelle les non-voyants et mal voyants (ou Personnes Aveugles et Malvoyantes : PAM) n’ont pas toujours accès. La présence des images constitue un réel handicap pour les PAM. Une transcription de ces images en relief peut augmenter leur accessibilité aux PAM. En prenant en compte les aspects de la cognition tactile chez les non-voyants, les règles, et les recommandations de la conception d’une image en relief, nous avons orienté notre travail sur les analyses et les comparaisons des techniques de traitement d’image numérique pour trouver les méthodes adaptées afin de créer une procédure automatique de création d’images en relief. A la fin de ce travail, nous avons testé les images en relief créées avec des non-voyants. Deux points importants ont été évalués :  Le taux de compréhension d’une image en relief ; Le temps d’exploration nécessaire.Les résultats suggèrent que les images faites par ce système sont accessibles pour les non-voyants braillistes. Le système implémenté peut être considéré comme un outil efficace de création d’image en relief :  Le système propose une possibilité de généraliser et formaliser la procédure de création d'image en relief ;  Le système donne une solution très rapide et facile.Le système peut traiter des images pédagogiques avec du contenu sémantique simplifié. Il peut donc être utilisé dans de nombreux cas d’utilisation. Par exemple, il peut être utilisé comme un outil pratique pour rendre accessible les images numériques. Il permet aussi la coopération avec d’autres modalités de présentation d’image au non-voyant, par exemple avec une carte interactive classique. / Visual information is a very rich source of information to which blind and visually impaired people (BVI) not always have access. The presence of images is a real handicap for the BVI. The transcription into an embossed image may increase the accessibility of an image to BVI. Our work takes into account the aspects of tactile cognition, the rules and the recommendations for the design of an embossed image. We focused our work on the analysis and comparison of digital image processing techniques in order to find the suitable methods to create an automatic procedure for embossing images. At the end of this research, we tested the embossed images created by our system with users with blindness. In the tests, two important points were evaluated:  The degree of understanding of an embossed image; The time required for exploration.The results suggest that the images made by this system are accessible to blind users who know braille. The implemented system can be regarded as an effective tool for the creation of an embossed image. The system offers an opportunity to generalize and formalize the procedure for creating an embossed image. The system gives a very quick and easy solution.The system can process pedagogical images with simplified semantic contents. It can be used as a practical tool for making digital images accessible. It also offers the possibility of cooperation with other modalities of presentation of the image to blind people, for example a traditional interactive map.
120

Blända kommersiella UAV:er med laservapen

Nilsson, Patrik January 2017 (has links)
Försvarsmakten har idag problem under övningar med oidentifierade UAV:er som befinner sig över övningsområdet. UAV:er som har möjlighet till att spana på övningar och kartlägga infrastruktur och förmågor. Denna uppsats syftar till att undersöka vilka möjligheter en handhållen laserpekare skulle skapa för att motverka problemet med UAV:er som befinner sig över övningsområden alternativt intill skyddsobjekt. Tanken med att undersöka handhållna laserpekare är att handhållna laserpekare inte är stora, tunga eller energikrävande. Detta skulle möjliggöra att sprida dem inom Försvarsmakten till samtliga förband. Experiment med olika handhållna laserpekare genomförs för att kontrollera vilka effekter de ger på bestämda avstånd. Det genomförs även experiment för att kontrollera vilka avstånd en specifik UAV kan genomföra spaningsuppdrag på samt möjligheter att upptäcka en UAV på olika avstånd med och utan hjälpmedel. Experimenten visar att om observatören är medveten om i vilken riktning UAV befinner sig är det möjligt att upptäcka den på 600m avstånd. Detta skapar ett problem eftersom UAV kan genomföra spaning på längre avstånd. Experimenten visar även att laser ger en bländningseffekt på 75m vilket inte är i närheten av UAV:ers möjliga spaningsavstånd / The Swedish Armed Forces today have problems during exercises with unidentified UAVs located over the exercise area. UAVs which can observe exercises and map infrastructure and abilities. This paper aims to investigate what capabilities a handheld laser pointer would create to counteract the problem of UAVs that are located over training areas or adjacent to protected area. The thought of examining handheld laser pointers is that handheld laser pointers are not large, heavy or energy-intensive, which would enable them to spread within the Armed Forces to all services. Experiments with different handheld laser pointers are performed to investigate the effects they give at a certain distance. Experiments are also carried out to check at which distances a specific UAV can perform reconnaissance assignments, as well as the ability to detect a UAV at various distances with and without aids. The experiments showed that if the observer is aware of the direction of the UAV, it is possible to detect it at 600m distance with aids and at 500m without. The experiments also showed that laser gives a glare effect at 75m which is not close to a UAV's possible reconnaissance distances.

Page generated in 0.1393 seconds