• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 974
  • 348
  • 116
  • 15
  • 10
  • 8
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1558
  • 759
  • 275
  • 260
  • 241
  • 235
  • 231
  • 170
  • 165
  • 155
  • 151
  • 150
  • 141
  • 132
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Analyse et interprétation d'images à l'usage des personnes non-voyantes : application à la génération automatique d'images en relief à partir d'équipements banalisés / Analysis and interpretation of images for use by blind people : application to the automatic generation of relief images from commoditized equipment

Chen, Yong 27 November 2015 (has links)
L’information visuelle est une source d’information très riche à laquelle les non-voyants et mal voyants (ou Personnes Aveugles et Malvoyantes : PAM) n’ont pas toujours accès. La présence des images constitue un réel handicap pour les PAM. Une transcription de ces images en relief peut augmenter leur accessibilité aux PAM. En prenant en compte les aspects de la cognition tactile chez les non-voyants, les règles, et les recommandations de la conception d’une image en relief, nous avons orienté notre travail sur les analyses et les comparaisons des techniques de traitement d’image numérique pour trouver les méthodes adaptées afin de créer une procédure automatique de création d’images en relief. A la fin de ce travail, nous avons testé les images en relief créées avec des non-voyants. Deux points importants ont été évalués :  Le taux de compréhension d’une image en relief ; Le temps d’exploration nécessaire.Les résultats suggèrent que les images faites par ce système sont accessibles pour les non-voyants braillistes. Le système implémenté peut être considéré comme un outil efficace de création d’image en relief :  Le système propose une possibilité de généraliser et formaliser la procédure de création d'image en relief ;  Le système donne une solution très rapide et facile.Le système peut traiter des images pédagogiques avec du contenu sémantique simplifié. Il peut donc être utilisé dans de nombreux cas d’utilisation. Par exemple, il peut être utilisé comme un outil pratique pour rendre accessible les images numériques. Il permet aussi la coopération avec d’autres modalités de présentation d’image au non-voyant, par exemple avec une carte interactive classique. / Visual information is a very rich source of information to which blind and visually impaired people (BVI) not always have access. The presence of images is a real handicap for the BVI. The transcription into an embossed image may increase the accessibility of an image to BVI. Our work takes into account the aspects of tactile cognition, the rules and the recommendations for the design of an embossed image. We focused our work on the analysis and comparison of digital image processing techniques in order to find the suitable methods to create an automatic procedure for embossing images. At the end of this research, we tested the embossed images created by our system with users with blindness. In the tests, two important points were evaluated:  The degree of understanding of an embossed image; The time required for exploration.The results suggest that the images made by this system are accessible to blind users who know braille. The implemented system can be regarded as an effective tool for the creation of an embossed image. The system offers an opportunity to generalize and formalize the procedure for creating an embossed image. The system gives a very quick and easy solution.The system can process pedagogical images with simplified semantic contents. It can be used as a practical tool for making digital images accessible. It also offers the possibility of cooperation with other modalities of presentation of the image to blind people, for example a traditional interactive map.
122

Blända kommersiella UAV:er med laservapen

Nilsson, Patrik January 2017 (has links)
Försvarsmakten har idag problem under övningar med oidentifierade UAV:er som befinner sig över övningsområdet. UAV:er som har möjlighet till att spana på övningar och kartlägga infrastruktur och förmågor. Denna uppsats syftar till att undersöka vilka möjligheter en handhållen laserpekare skulle skapa för att motverka problemet med UAV:er som befinner sig över övningsområden alternativt intill skyddsobjekt. Tanken med att undersöka handhållna laserpekare är att handhållna laserpekare inte är stora, tunga eller energikrävande. Detta skulle möjliggöra att sprida dem inom Försvarsmakten till samtliga förband. Experiment med olika handhållna laserpekare genomförs för att kontrollera vilka effekter de ger på bestämda avstånd. Det genomförs även experiment för att kontrollera vilka avstånd en specifik UAV kan genomföra spaningsuppdrag på samt möjligheter att upptäcka en UAV på olika avstånd med och utan hjälpmedel. Experimenten visar att om observatören är medveten om i vilken riktning UAV befinner sig är det möjligt att upptäcka den på 600m avstånd. Detta skapar ett problem eftersom UAV kan genomföra spaning på längre avstånd. Experimenten visar även att laser ger en bländningseffekt på 75m vilket inte är i närheten av UAV:ers möjliga spaningsavstånd / The Swedish Armed Forces today have problems during exercises with unidentified UAVs located over the exercise area. UAVs which can observe exercises and map infrastructure and abilities. This paper aims to investigate what capabilities a handheld laser pointer would create to counteract the problem of UAVs that are located over training areas or adjacent to protected area. The thought of examining handheld laser pointers is that handheld laser pointers are not large, heavy or energy-intensive, which would enable them to spread within the Armed Forces to all services. Experiments with different handheld laser pointers are performed to investigate the effects they give at a certain distance. Experiments are also carried out to check at which distances a specific UAV can perform reconnaissance assignments, as well as the ability to detect a UAV at various distances with and without aids. The experiments showed that if the observer is aware of the direction of the UAV, it is possible to detect it at 600m distance with aids and at 500m without. The experiments also showed that laser gives a glare effect at 75m which is not close to a UAV's possible reconnaissance distances.
123

Vers un efficace détecteur de trait : Les coins de contour et ses applications / Toward an efficient feature detector : Edge corners and its applications

Al Nachar, Rabih 06 November 2014 (has links)
Nous proposons dans cette thèse un nouveau détecteur de « Coins » de contour dans une image. Ces coins sont les sommets de la ligne polygonale approximant le contour. Ils peuvent appartenir ou non au contour. Ils correspondent à une déviation importante de la direction de ce contour. Aussi, ils sont répétables en présence de transformations affines ou similitudes et sont robustes au bruit présent aux frontières d'une image. Grâce à cette répétabilité, les coins sont utilisés dans une application de reconnaissance de la forme.Les coins peuvent être classés selon leur force. Ainsi sous ensemble de ces coins,appelé "Coins Dominants", peuvent être extraits formant les sommets du polygone« minimal » qui représente le contour, pour un nombre de segments donné. Deux applications, basées sur les Coins/Coins Dominants du contour ont été réalisées : La première est une application de recalage d’images où de nouvelles primitives invariantes constituées de quatre "Coins Dominants" du contour ont été proposées. La seconde application est la reconnaissance des caractères dans une image déformée où les coins du contour des caractères ont été utilisés dans un processus de segmentation / reconnaissance simultané. / In this thesis, a new feature detector is proposed. The new features are edgecorners located on the contours of a studied image. These points are edge pointswhere a deviation in the edge direction occurs. In addition, they are repeatable versussimilarity, affine transformations and also robust to noise at the boundaries of theobject's image. Due to their repeatability, these corners are used in a shape recognitionapplication. Also, a smaller set of corners called "Dominant Corners" or "DCs" isextracted form the original set of corners using a new proposed polygonalapproximation algorithm. These DCs form the vertices of a polygon that bestapproximate their contour. Two applications using the edge corners are alsodeveloped. The first one is an image registration application that forms invariantprimitives using the DCs. The second application is a word recognition applicationwhere the edge corners located on the characters contours are used in a simultaneoussegmentation/recognition process to recognize the characters in a deformed wordimage.
124

Temporal signals classification / Classification de signaux temporels

Rida, Imad 03 February 2017 (has links)
De nos jours, il existe de nombreuses applications liées à la vision et à l’audition visant à reproduire par des machines les capacités humaines. Notre intérêt pour ce sujet vient du fait que ces problèmes sont principalement modélisés par la classification de signaux temporels. En fait, nous nous sommes intéressés à deux cas distincts, la reconnaissance de la démarche humaine et la reconnaissance de signaux audio, (notamment environnementaux et musicaux). Dans le cadre de la reconnaissance de la démarche, nous avons proposé une nouvelle méthode qui apprend et sélectionne automatiquement les parties dynamiques du corps humain. Ceci permet de résoudre le problème des variations intra-classe de façon dynamique; les méthodes à l’état de l’art se basant au contraire sur des connaissances a priori. Dans le cadre de la reconnaissance audio, aucune représentation de caractéristiques conventionnelle n’a montré sa capacité à s’attaquer indifféremment à des problèmes de reconnaissance d’environnement ou de musique : diverses caractéristiques ont été introduites pour résoudre chaque tâche spécifiquement. Nous proposons ici un cadre général qui effectue la classification des signaux audio grâce à un problème d’apprentissage de dictionnaire supervisé visant à minimiser et maximiser les variations intra-classe et inter-classe respectivement. / Nowadays, there are a lot of applications related to machine vision and hearing which tried to reproduce human capabilities on machines. These problems are mainly amenable to a temporal signals classification problem, due our interest to this subject. In fact, we were interested to two distinct problems, humain gait recognition and audio signal recognition including both environmental and music ones. In the former, we have proposed a novel method to automatically learn and select the dynamic human body-parts to tackle the problem intra-class variations contrary to state-of-art methods which relied on predefined knowledge. To achieve it a group fused lasso algorithm is applied to segment the human body into parts with coherent motion value across the subjects. In the latter, while no conventional feature representation showed its ability to tackle both environmental and music problems, we propose to model audio classification as a supervised dictionary learning problem. This is done by learning a dictionary per class and encouraging the dissimilarity between the dictionaries by penalizing their pair- wise similarities. In addition the coefficients of a signal representation over these dictionaries is sought as sparse as possible. The experimental evaluations provide performing and encouraging results.
125

In-hand robotic tactile object recognition / Reconnaissance tactile des objets dans une main robotique

Vásquez, Alex 11 December 2017 (has links)
Les mains robotiques sont pour la plupart utilisées pour reproduire la dextérité humaine. Au delà des challenges mécaniques et de contrôle que ceci peut représenter, la connaissance de l’environnent avec lequel la main interagit est important pour assurer la dextérité. Donc, la reconnaissance tactile des objets est devenue une capacité importante pour les systèmes de manipulation. Dans ce thèse, on propose une méthode pour qu'une main robotique puisse comprendre la nature géométrique d'un objet que lui a été donné. En plus des données statique récupérées quand la main a saisie l'objet, le mouvements qu'elle fait pendant la saisi sont aussi exploitées. Comme première contribution, on propose les signatures de formes proprioceptives. Ceci est un descripteur qui est basé uniquement sur des données proprioceptives et qui est invariant à la taille et à la position de l'objet dans la main. Il contient l'information sur la forme globale de l'objet. Comme deuxième contribution, on propose un outil pour extraire l'information sur l'objet saisi en utilisant l'information dynamique générée pendant la saisie. Pour cela, les mouvements des doigts pendant le saisie sont interprétés en fonction de la stratégie de saisie utilisée. On présente une méthode pour faire la reconnaissance de la forme d'un objet de façon séquentielle. Pour cela, on utilise une collection des Forêt d'arbres décisionnels. Ceci permet de mettre a jour le modèle de reconnaissance quand des nouveaux objets doivent être reconnus. De cette façon, le temps du processus d’entraînement de l'algorithme est réduit. / Robotic anthropomorphic hands are mostly used to reproduce the human dexterity in manipulation. Beyond the mechanical and control challenges that this represents, perceptive knowledge of the environment with which the hand interacts is key to ensure that dexterity is achieved. In this sense, tactile object recognition has become an important asset for manipulation systems. Regardless of the advances in this domain, it continues to be a valid subject of research today. In this thesis, we propose a method to enable a robotic hand to quickly understand the geometrical nature of an object that has been handled by it. Aside from the static data obtained once the object has been fully grasped, the movements of the hand during the grasp execution will also be exploited. As a first contribution, we propose the proprioceptive shape signature. This descriptor, based solely on proprioceptive data, is invariant to the size and pose of the object within the hand and it contains information about the global shape of the object almost as soon as the grasp execution ends. As a second contribution, we propose a tool to extract information about the grasped object from the dynamic data generated during the grasp execution. For this, the movements of the fingers during the grasping process will be interpreted based on the grasp strategy. Finally, we present a method to perform sequential object shape identification based on a collection of random forests. This method allows to update the recognition model as new shapes are desired to be identified. Thus, the time-consuming process of training the model from scratch is avoided.
126

Effect of Sensor/display, Target and Scene Characteristics on Detection Time in the Development of a Target Acquisition Model

Silbernagel, Brian Lee 01 April 1979 (has links) (PDF)
No description available.
127

Human shape modelling for carried object detection and segmentation

Ghadiri, Farnoosh 14 May 2024 (has links)
La détection des objets transportés est un des prérequis pour développer des systèmes qui cherchent à comprendre les activités impliquant des personnes et des objets. Cette thèse présente de nouvelles méthodes pour détecter et segmenter les objets transportés dans des vidéos de surveillance. Les contributions sont divisées en trois principaux chapitres. Dans le premier chapitre, nous introduisons notre détecteur d’objets transportés, qui nous permet de détecter un type générique d’objets. Nous formulons la détection d’objets transportés comme un problème de classification de contours. Nous classifions le contour des objets mobiles en deux classes : objets transportés et personnes. Un masque de probabilités est généré pour le contour d’une personne basé sur un ensemble d’exemplaires (ECE) de personnes qui marchent ou se tiennent debout de différents points de vue. Les contours qui ne correspondent pas au masque de probabilités généré sont considérés comme des candidats pour être des objets transportés. Ensuite, une région est assignée à chaque objet transporté en utilisant la Coupe Biaisée Normalisée (BNC) avec une probabilité obtenue par une fonction pondérée de son chevauchement avec l’hypothèse du masque de contours de la personne et du premier plan segmenté. Finalement, les objets transportés sont détectés en appliquant une Suppression des Non-Maxima (NMS) qui élimine les scores trop bas pour les objets candidats. Le deuxième chapitre de contribution présente une approche pour détecter des objets transportés avec une méthode innovatrice pour extraire des caractéristiques des régions d’avant-plan basée sur leurs contours locaux et l’information des super-pixels. Initiallement, un objet bougeant dans une séquence vidéo est segmente en super-pixels sous plusieurs échelles. Ensuite, les régions ressemblant à des personnes dans l’avant-plan sont identifiées en utilisant un ensemble de caractéristiques extraites de super-pixels dans un codebook de formes locales. Ici, les régions ressemblant à des humains sont équivalentes au masque de probabilités de la première méthode (ECE). Notre deuxième détecteur d’objets transportés bénéficie du nouveau descripteur de caractéristiques pour produire une carte de probabilité plus précise. Les compléments des super-pixels correspondants aux régions ressemblant à des personnes dans l’avant-plan sont considérés comme une carte de probabilité des objets transportés. Finalement, chaque groupe de super-pixels voisins avec une haute probabilité d’objets transportés et qui ont un fort support de bordure sont fusionnés pour former un objet transporté. Finalement, dans le troisième chapitre, nous présentons une méthode pour détecter et segmenter les objets transportés. La méthode proposée adopte le nouveau descripteur basé sur les super-pixels pour iii identifier les régions ressemblant à des objets transportés en utilisant la modélisation de la forme humaine. En utilisant l’information spatio-temporelle des régions candidates, la consistance des objets transportés récurrents, vus dans le temps, est obtenue et sert à détecter les objets transportés. Enfin, les régions d’objets transportés sont raffinées en intégrant de l’information sur leur apparence et leur position à travers le temps avec une extension spatio-temporelle de GrabCut. Cette étape finale sert à segmenter avec précision les objets transportés dans les séquences vidéo. Nos méthodes sont complètement automatiques, et font des suppositions minimales sur les personnes, les objets transportés, et les les séquences vidéo. Nous évaluons les méthodes décrites en utilisant deux ensembles de données, PETS 2006 et i-Lids AVSS. Nous évaluons notre détecteur et nos méthodes de segmentation en les comparant avec l’état de l’art. L’évaluation expérimentale sur les deux ensembles de données démontre que notre détecteur d’objets transportés et nos méthodes de segmentation surpassent de façon significative les algorithmes compétiteurs. / Detecting carried objects is one of the requirements for developing systems that reason about activities involving people and objects. This thesis presents novel methods to detect and segment carried objects in surveillance videos. The contributions are divided into three main chapters. In the first, we introduce our carried object detector which allows to detect a generic class of objects. We formulate carried object detection in terms of a contour classification problem. We classify moving object contours into two classes: carried object and person. A probability mask for person’s contours is generated based on an ensemble of contour exemplars (ECE) of walking/standing humans in different viewing directions. Contours that are not falling in the generated hypothesis mask are considered as candidates for carried object contours. Then, a region is assigned to each carried object candidate contour using Biased Normalized Cut (BNC) with a probability obtained by a weighted function of its overlap with the person’s contour hypothesis mask and segmented foreground. Finally, carried objects are detected by applying a Non-Maximum Suppression (NMS) method which eliminates the low score carried object candidates. The second contribution presents an approach to detect carried objects with an innovative method for extracting features from foreground regions based on their local contours and superpixel information. Initially, a moving object in a video frame is segmented into multi-scale superpixels. Then human-like regions in the foreground area are identified by matching a set of extracted features from superpixels against a codebook of local shapes. Here the definition of human like regions is equivalent to a person’s probability map in our first proposed method (ECE). Our second carried object detector benefits from the novel feature descriptor to produce a more accurate probability map. Complement of the matching probabilities of superpixels to human-like regions in the foreground are considered as a carried object probability map. At the end, each group of neighboring superpixels with a high carried object probability which has strong edge support is merged to form a carried object. Finally, in the third contribution we present a method to detect and segment carried objects. The proposed method adopts the new superpixel-based descriptor to identify carried object-like candidate regions using human shape modeling. Using spatio-temporal information of the candidate regions, consistency of recurring carried object candidates viewed over time is obtained and serves to detect carried objects. Last, the detected carried object regions are refined by integrating information of their appearances and their locations over time with a spatio-temporal extension of GrabCut. This final stage is used to accurately segment carried objects in frames. Our methods are fully automatic, and make minimal assumptions about a person, carried objects and videos. We evaluate the aforementioned methods using two available datasets PETS 2006 and i-Lids AVSS. We compare our detector and segmentation methods against a state-of-the-art detector. Experimental evaluation on the two datasets demonstrates that both our carried object detection and segmentation methods significantly outperform competing algorithms.
128

Hierarchical scene categorization : exploiting fused local & global features and outdoor & indoor information

Shahriari, Mana 27 January 2024 (has links)
Récemment, le problème de la compréhension de l’image a été l’objet de beaucoup d’attentions dans la littérature. La catégorisation de scène peut être vue comme un sous-ensemble de la compréhension d’image utilisée pour donner un contexte à la compréhension d’image ainsi qu’à la reconnaissance d’objet afin de faciliter ces tâches. Dans cette thèse, nous revisitons les idées classiques de la catégorisation des scènes à la lumière des approches modernes. Le modèle proposé s’inspire considérablement de la façon dont le système visuel humain comprend et perçoit son environnement. À cet égard, je soute qu’ajouter un niveau de classificateur extérieur – intérieur combiné à des caractéristiques globales et locales de scène permet d’atteindre une performance de pointe. Ainsi, un tel modèle requiert ces deux éléments afin de gérer une grande variété d’éclairage et points de vue ainsi que des objets occultés à l’intérieur des scènes. Le modèle que je propose est un cadre hiérarchique en deux étapes qui comprend un classificateur extérieur – intérieur à son stade initial et un modèle de scène contextuelle au stade final. Je monte ensuite que les fonctionnalités locales introduites, combinées aux caractéristiques globales, produisent des caractéristiques de scène plus stables. Par conséquent, les deux sont des ingrédients d’un modèle de scène. Les caractéristiques de texture des scène extérieures agissent comme caractéristique locale, tandis que leur apparence spatiale agit comme caractéristique globale. Dans les scènes d’intérieur, les caractéristiques locales capturent des informations détaillées sur les objets alors que les caractéristiques globales représentent l’arrière-plan et le contexte de la scène. Enfin, je confirme que le modèle présenté est capable de fournir des performances de pointe sur trois jeux de données de scène qui sont des standards de facto; 15 – Scene Category, 67 –Indoor Scenes, et SUN 397. / Recently the problem of image understanding has drawn lots of attention in the literature. Scene categorization can be seen as a subset of image understanding utilized to give context to image understanding also to object recognition in order to ease these tasks. In this thesis, I revisit the classical ideas, model driven approaches, in scene categorization in the light of modern approaches, data driven approaches. The proposed model is greatly inspired by human visual system in understanding and perceiving its environment. In this regard, I argue that adding a level of outdoor – indoor classifier combined with global and local scene features, would reach to the state-of-the-art performance. Thus, such a model requires both of these elements in order to handle wide variety of illumination and viewpoint as well as occluded objects within scenes. The proposed model is a two-stage hierarchical model which features an outdoor – indoor classifier at its initial stage and a contextual scene model at its final stage. I later show that the introduced local features combined with global features produce more stable scene features, hence both are essential components of a scene model. Texture-like characteristics of outdoor scenes act as local feature meanwhile their spatial appearance act as the global feature. In indoor scenes, local features capture detailed information on objects, while global features represent background and the context of the scene. Finally, I have confirmed that the presented model is capable of delivering state-of-the-art performance on 15 – Scene Category, 67 – Indoor Scenes, and SUN 397, three de-facto standard scene datasets
129

Détection d'objets multi-parties par algorithme adaptatif et optimisé

Villeneuve, Guillaume 19 April 2018 (has links)
Dans ce mémoire, nous proposons des améliorations à une méthode existante de dé- tection d'objets de forme inconnue à partir de primitives simples. Premièrement, avec un algorithme adaptatif, nous éliminons les cas où on n'obtenait aucun résultat avec certaines images en retirant la plupart des seuils fixes, ce qui assure un certain nombre de groupes de primitives à chaque étape. Ensuite, l'ajout de certaines optimisations et d'une version parallèle de la méthode permettent de rendre le temps d'exécution raisonnable pour ce nouvel algorithme. Nous abordons ensuite le problème des solutions trop semblables en ajoutant une nouvelle étape de structuration qui réduira leur nombre sans en affecter la variété grâce au regroupement hiérarchique. Finalement, nous ajustons certains paramètres et des résultats sont produits avec trois ensembles de 10 images. Nous réussissons à prouver de manière objective que les résultats obtenus sont meilleurs qu'avec la méthode précédente. / In this thesis, we propose improvements to an existing unknown shape object detection method that uses simple primitives. Firstly, we eliminate cases where no results were obtained with some images using an adaptive algorithm by removing most of the fixed thresholds, assuring a certain number of primitive groups at each step. Secondly, adding some optimizations and a parallel version of the algorithm make the running time of this new algorithm reasonable. Thirdly, we approach the problem of the redundant solutions by adding a new structuring step that will reduce their number without affecting their variety using hierarchical clustering. Finally, we adjust some parameters and results are produced using three sets of 10 images. We prove in an objective manner that the obtained results are better than those of the previous method.
130

Reconnaissance invariante sous tranformations d'intensité : étude de performances

Ben Tara, Walid 13 April 2018 (has links)
On présente dans ce qui suit une étude détaillée de la performance du LACIF (locally adaptive contrast invariant filter), qui est à la base un filtre non linéaire invariant sous transformation linéaire d'intensité de la forme± af(x, y) + bO(x, y) ¿, où± f(x, y) ¿est l'objet à reconnaitre et± O(x, y) ¿ son support. ± a ¿ et ± b ¿ sont respectivement les facteurs multiplicatif et additif du changement d'intensité. Ainsi l'étude de performance est établie sous différents aspects et par le biais de différents outils qu'on a adopté tout au long de ce mémoire.

Page generated in 0.0771 seconds