• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 35
  • 1
  • Tagged with
  • 208
  • 34
  • 33
  • 27
  • 19
  • 17
  • 17
  • 16
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Modélisation de formes 3D par les graphes pour leur reconnaissance : application à la vision 3D en robotique dans des tâches de "Pick-and-Place" / Modeling of 3D shapes by graphs for their recognition : application to 3D vision in robotics for "Pick-and-Place" tasks

Willaume, Pierre 11 December 2017 (has links)
L'objectif de cette thèse est de concevoir un système automatique constitué d'une ou plusieurs caméras capables de détecter en trois dimensions un amalgame d'objets stockés dans un conteneur. Pour ceci, il est nécessaire de modéliser, de reconnaître et de localiser des formes dans une image. Dans un premier temps, Nous proposons une solution d'optimisation du calibrage de caméras. C'est une tâche essentielle pour récupérer des informations quantitatives sur les images capturées. Cette méthode nécessite des compétences spécifiques en matière de traitement d'image, ce qui n'est pas toujours le cas dans l'industrie. Nous proposons d'automatiser et d'optimiser le système d'étalonnage en éliminant la sélection des images par l'opérateur. Ensuite, nous proposons d'améliorer les systèmes de détection d'objets fins et sans motif. Enfin, nous proposons d'adapter des algorithmes évolutionnaires dans le but d'optimiser les temps de recherche. / The aim of this thesis is to design an automatic system involving one or several cameras capable of detecting in three dimensions a set of abjects placed in a bin. To do this, we must model, recognize and locate shapes in an image. First, we propose a solution to optimize the camera calibration system. This is an essential task for the retrieval of quantitative information about the captured images. However, the current methods require specific skills in image processing, which are not always available in industry. We propose to automate and optimize the calibration system by eliminating the selection of images by the operator. Second, we propose to improve the detection systems for thin and featureless abjects. Finally, we propose to adapt evolutionary algorithms to optimize search times.
142

Chaine 3D interactive / 3D chain interactive

Daval, Vincent 09 December 2014 (has links)
Avec l'évolution constante des technologies, les scanners 3D fournissent de plus en plus de données avec une précision toujours plus grande. Cependant, l'augmentation considérable de la taille des données pose des problèmes, les fichiers deviennent très lourds et il peut en découler des difficultés de transmission ou de stockage. C'est pourquoi, la plupart du temps les données obtenues par les scanners vont être analysées, traitées puis simplifiées ; on parle alors de chaine d'acquisition 3D. Ce manuscrit présente une approche qui permet de numériser les objets de manière dynamique, en adaptant la densité de points dès l'acquisition en fonction de la complexité de l'objet à numériser, et ce sans a priori sur la forme de l'objet. Ce système permet d'éviter de passer par la chaine 3D classique, en ne calculant pas un nuage de points dense qu'il faudra simplifier par la suite, mais en adaptant la densité de points au niveau de l'acquisition afin d'obtenir des données simplifiées directement à la sortie de l'acquisition, permettant ainsi de réduire considérablement le temps de traitement des données. / With constant evolution of technology, 3D scanners are providing more and more data with ever greater precision. However, the substantial increase of the data size is problematic. Files become very heavy and can cause problems in data transmission or data storage. Therefore, most of the time, the data obtained by the 3d scanners will be analyzed, processed and simplify; this is called 3D acquisition chain.This manuscript presents an approach which digitize objects dynamically by adapting point density during the acquisition depending on the object complexity, without informations on object shape. This system allows to avoid the use of the classic 3D chain. This system do not calculate a dense points cloud which will be simplify later, but it adapts the points density during the acquisition in order to obtain directly simplified data to the acquisition output. This process allows to reduce significantly processing time.
143

Lexical simplification : optimising the pipeline

Shardlow, Matthew January 2015 (has links)
Introduction: This thesis was submitted by Matthew Shardlow to the University of Manchester for the degree of Doctor of Philosophy (PhD) in the year 2015. Lexical simplification is the practice of automatically increasing the readability and understandability of a text by identifying problematic vocabulary and substituting easy to understand synonyms. This work describes the research undertaken during the course of a 4-year PhD. We have focused on the pipeline of operations which string together to produce lexical simplifications. We have identified key areas for research and allowed our results to influence the direction of our research. We have suggested new methods and ideas where appropriate. Objectives: We seek to further the field of lexical simplification as an assistive technology. Although the concept of fully-automated error-free lexical simplification is some way off, we seek to bring this dream closer to reality. Technology is ubiquitous in our information-based society. Ever-increasingly we consume news, correspondence and literature through an electronic device. E-reading gives us the opportunity to intervene when a text is too difficult. Simplification can act as an augmentative communication tool for those who find a text is above their reading level. Texts which would otherwise go unread would become accessible via simplification. Contributions: This PhD has focused on the lexical simplification pipeline. We have identified common sources of errors as well as the detrimental effects of these errors. We have looked at techniques to mitigate the errors at each stage of the pipeline. We have created the CW Corpus, a resource for evaluating the task of identifying complex words. We have also compared machine learning strategies for identifying complex words. We propose a new preprocessing step which yields a significant increase in identification performance. We have also tackled the related fields of word sense disambiguation and substitution generation. We evaluate the current state of the field and make recommendations for best practice in lexical simplification. Finally, we focus our attention on evaluating the effect of lexical simplification on the reading ability of people with aphasia. We find that in our small-scale preliminary study, lexical simplification has a nega- tive effect, causing reading time to increase. We evaluate this result and use it to motivate further work into lexical simplification for people with aphasia.
144

Exploiting phonological constraints and automatic identification of speaker classes for Arabic speech recognition

Alsharhan, Iman January 2014 (has links)
The aim of this thesis is to investigate a number of factors that could affect the performance of an Arabic automatic speech understanding (ASU) system. The work described in this thesis belongs to the speech recognition (ASR) phase, but the fact that it is part of an ASU project rather than a stand-alone piece of work on ASR influences the way in which it will be carried out. Our main concern in this work is to determine the best way to exploit the phonological properties of the Arabic language in order to improve the performance of the speech recogniser. One of the main challenges facing the processing of Arabic is the effect of the local context, which induces changes in the phonetic representation of a given text, thereby causing the recognition engine to misclassifiy it. The proposed solution is to develop a set of language-dependent grapheme-to-allophone rules that can predict such allophonic variations and eventually provide a phonetic transcription that is sensitive to the local context for the ASR system. The novel aspect of this method is that the pronunciation of each word is extracted directly from a context-sensitive phonetic transcription rather than a predened dictionary that typically does not reect the actual pronunciation of the word. Besides investigating the boundary effect on pronunciation, the research also seeks to address the problem of Arabic's complex morphology. Two solutions are proposed to tackle this problem, namely, using underspecified phonetic transcription to build the system, and using phonemes instead of words to build the hidden markov models (HMMS). The research also seeks to investigate several technical settings that might have an effect on the system's performance. These include training on the sub-population to minimise the variation caused by training on the main undifferentiated population, as well as investigating the correlation between training size and performance of the ASR system.
145

Context-aware gestural interaction in the smart environments of the ubiquitous computing era

Caon, Maurizio January 2014 (has links)
Technology is becoming pervasive and the current interfaces are not adequate for the interaction with the smart environments of the ubiquitous computing era. Recently, researchers have started to address this issue introducing the concept of natural user interface, which is mainly based on gestural interactions. Many issues are still open in this emerging domain and, in particular, there is a lack of common guidelines for coherent implementation of gestural interfaces. This research investigates gestural interactions between humans and smart environments. It proposes a novel framework for the high-level organization of the context information. The framework is conceived to provide the support for a novel approach using functional gestures to reduce the gesture ambiguity and the number of gestures in taxonomies and improve the usability. In order to validate this framework, a proof-of-concept has been developed. A prototype has been developed by implementing a novel method for the view-invariant recognition of deictic and dynamic gestures. Tests have been conducted to assess the gesture recognition accuracy and the usability of the interfaces developed following the proposed framework. The results show that the method provides optimal gesture recognition from very different view-points whilst the usability tests have yielded high scores. Further investigation on the context information has been performed tackling the problem of user status. It is intended as human activity and a technique based on an innovative application of electromyography is proposed. The tests show that the proposed technique has achieved good activity recognition accuracy. The context is treated also as system status. In ubiquitous computing, the system can adopt different paradigms: wearable, environmental and pervasive. A novel paradigm, called synergistic paradigm, is presented combining the advantages of the wearable and environmental paradigms. Moreover, it augments the interaction possibilities of the user and ensures better gesture recognition accuracy than with the other paradigms.
146

Quantification et modélisation par traitement d'images de la répartition des produits pulvérisés à l'échelle de la feuille en fonction de son état de surface et la nature du produit / Quantification and modeling by image processing of the spray products across the leaf by considering the leaf surface state ant the nature of the product

Bediaf, Houda 06 June 2016 (has links)
Dans le cadre de la pulvérisation agricole, la diminution de la quantité des intrants est devenue une étape cruciale, et ce notamment en viticulture. La pulvérisation de précision en viticulture implique cependant une maitrise conjointe du matériel utilisé, des produits et de la répartition de ces produits sur le feuillage. Dans ce contexte, nombreuses sont les recherches menées sur l’optimisation d’utilisation des produits phytosanitaires, leur objectif final étant de réduire de manière significative la quantité d’intrants dans la culture. Cependant, peu de travaux ont été effectués sur l’étude du comportement des produits directement sur le feuillage, ce qui constitue donc l’objectif de cette thèse. La première partie de ce travail est consacrée particulièrement à l’analyse de l’état de la surface foliaire, en se focalisant spécifiquement sur l’étude de la rugosité de surface de la feuille qui constitue un paramètre essentiel dans le processus d’adhésion du produit pulvérisé sur la feuille. L’analyse de la surface de la feuille est réalisée en déterminant les caractéristiques texturales extraites d’images microscopiques. Un nouvel indicateur de rugosité est proposé ainsi que, des paramètres spatiaux et fréquentiels sont utilisés pour estimer et la rugosité de la feuille. Ces paramètres permettent ensuite la caractérisation de l’homogénéité de la surface et la détection des nervures/poils au niveau de la surface de la feuille. Cette partie représente une base fondamentale pour mieux comprendre le comportement des gouttelettes pulvérisées sur la feuille de vigne. La deuxième partie de ce travail de thèse est consacrée à des études expérimentales, qui ont pour but de définir et construire des modèles statistiques permettant d’estimer la quantité de produit restant sur la feuille ou la surface occupée par les gouttes. Ces modèles prennent en considération différents paramètres de pulvérisation, tels que la taille de la goutte et sa vitesse, la tension superficielle du produit, l’angle d’inclinaison et la rugosité de la surface de la feuille. Ces modèlespourraient être vus comme des outils de décision communs pour optimiser la quantité du produit pulvérisé et l’estimation du produit restant sur la feuille, et comme un outil d’aide pour optimiser les bancs d’essais et de tests de la qualité de la pulvérisation. / In the context of agricultural spraying, reducing the amount of input became a crucial step particularly in viticulture. The development of spraying precision in this domain needs the mastery of the use of spray equipment, product and distribution of these products on the foliage. In this area, many research have been done, their main goal being to optimize the use of plant product protection and to reduce significantly the input quantity inside the culture. However, few research has been done on the behavior of the product directly on the foliage which constitutes finally the main goal of this thesis. The first part of this report deals particularly with the analysis of leaf surface state by focusing precisely on the leaf surface roughness, one of the main parameters in product adhesion process. A leaf surface analysis is performed by determining the textural features extracted from microscopic images. A new roughness indicator is proposed and, spatial and frequency parameters were used to estimate and characterize the leaf roughness. These parameters allow both the characterization of surface homogeneity and the detection of the presence of rib/hair on the leaf surface. Indeed, this part represents a fundamental basis for understanding the spray droplet behavior on the vine leaf. The second part of this thesis deals with experimental studies which aim to define and to create statistical models to estimate the amount of product remaining on the leaf surface or the surface occupied by droplets. These models consider different spray parameters, such as droplet size and velocity, surface tension of the product, slope angle and roughness of the leaf. These models could be seen as aid-decision tools to optimize the amount of spray and the estimated product remaining on the leaf.
147

Multispectral imaging and its use for face recognition : sensory data enhancement / Imagerie multispectrale et son usage pour la reconnaissance de visage : amélioration des données sensorielles

Ben Said, Ahmed 03 June 2015 (has links)
La recherche en biométrie a connu une grande évolution durant les dernières annéessurtout avec le développement des méthodes de décomposition de visage. Cependant,ces méthodes ne sont pas robustes particulièrement dans les environnements incontrôlés.Pour faire face à ce problème, l'imagerie multispectrale s'est présentée comme une nouvelletechnologie qui peut être utilisée en biométrie basée sur la reconnaissance de visage.Dans tous ce processus, la qualité des images est un facteur majeur pour concevoirun système de reconnaissance fiable. Il est essentiel de se disposer d'images de hautequalité. Ainsi, il est indispensable de développer des algorithmes et des méthodes pourl'amélioration des données sensorielles. Cette amélioration inclut plusieurs tâches tellesque la déconvolution des images, le defloutage, la segmentation, le débruitage. . . Dansle cadre de cette thèse, nous étudions particulièrement la suppression de bruit ainsi quela segmentation de visage.En général, le bruit est inévitable dans toutes applications et son élimination doit sefaire tout en assurant l'intégrité de l'information confinée dans l'image. Cette exigenceest essentielle dans la conception d'un algorithme de débruitage. Le filtre Gaussienanisotropique est conçu spécifiquement pour répondre à cette caractéristique. Nous proposonsd'étendre ce filtre au cas vectoriel où les données en disposition ne sont plus desvaleurs de pixels mais un ensemble de vecteurs dont les attribues sont la réflectance dansune longueur d'onde spécifique. En outre, nous étendons aussi le filtre de la moyennenon-local (NLM) dans le cas vectoriel. La particularité de ce genre de filtre est la robustesseface au bruit Gaussien.La deuxième tâche dans le but d'amélioration de données sensorielles est la segmentation.Le clustering est l'une des techniques souvent utilisées pour la segmentation etclassification des images. L'analyse du clustering implique le développement de nouveauxalgorithmes particulièrement ceux qui sont basés sur la méthode partitionnelle.Avec cette approche, le nombre de clusters doit être connu d'avance, chose qui n'est pastoujours vraie surtout si nous disposons de données ayant des caractéristiques inconnues.Dans le cadre de cette thèse, nous proposons de nouveaux indices de validationde clusters qui sont capables de prévoir le vrai nombre de clusters même dans le cas dedonnées complexes.A travers ces deux tâches, des expériences sur des images couleurs et multispectrales sontréalisées. Nous avons utilisé des bases de données d'image très connues pour analyserl'approche proposée. / In this thesis, we focus on multispectral image for face recognition. With such application,the quality of the image is an important factor that affects the accuracy of therecognition. However, the sensory data are in general corrupted by noise. Thus, wepropose several denoising algorithms that are able to ensure a good tradeoff betweennoise removal and details preservation. Furthermore, characterizing regions and detailsof the face can improve recognition. We focus also in this thesis on multispectral imagesegmentation particularly clustering techniques and cluster analysis. The effectiveness ofthe proposed algorithms is illustrated by comparing them with state-of-the-art methodsusing both simulated and real multispectral data sets.
148

Automatic detection of visual cues associated to depression / Détection automatique des repères visuels associés à la dépression

Pampouchidou, Anastasia 08 November 2018 (has links)
La dépression est le trouble de l'humeur le plus répandu dans le monde avec des répercussions sur le bien-être personnel, familial et sociétal. La détection précoce et précise des signes liés à la dépression pourrait présenter de nombreux avantages pour les cliniciens et les personnes touchées. Le présent travail visait à développer et à tester cliniquement une méthodologie capable de détecter les signes visuels de la dépression afin d’aider les cliniciens dans leur décision.Plusieurs pipelines d’analyse ont été mis en œuvre, axés sur les algorithmes de représentation du mouvement, via des changements de textures ou des évolutions de points caractéristiques du visage, avec des algorithmes basés sur les motifs binaires locaux et leurs variantes incluant ainsi la dimension temporelle (Local Curvelet Binary Patterns-Three Orthogonal Planes (LCBP-TOP), Local Curvelet Binary Patterns- Pairwise Orthogonal Planes (LCBP-POP), Landmark Motion History Images (LMHI), and Gabor Motion History Image (GMHI)). Ces méthodes de représentation ont été combinées avec différents algorithmes d'extraction de caractéristiques basés sur l'apparence, à savoir les modèles binaires locaux (LBP), l'histogramme des gradients orientés (HOG), la quantification de phase locale (LPQ) et les caractéristiques visuelles obtenues après transfert de modèle issu des apprentissage profonds (VGG). Les méthodes proposées ont été testées sur deux ensembles de données de référence, AVEC et le Wizard of Oz (DAICWOZ), enregistrés à partir d'individus non diagnostiqués et annotés à l'aide d'instruments d'évaluation de la dépression. Un nouvel ensemble de données a également été développé pour inclure les patients présentant un diagnostic clinique de dépression (n = 20) ainsi que les volontaires sains (n = 45).Deux types différents d'évaluation de la dépression ont été testés sur les ensembles de données disponibles, catégorique (classification) et continue (régression). Le MHI avec VGG pour l'ensemble de données de référence AVEC'14 a surpassé l'état de l’art avec un F1-Score de 87,4% pour l'évaluation catégorielle binaire. Pour l'évaluation continue des symptômes de dépression « autodéclarés », LMHI combinée aux caractéristiques issues des HOG et à celles issues du modèle VGG ont conduit à des résultats comparatifs aux meilleures techniques de l’état de l’art sur le jeu de données AVEC'14 et sur notre ensemble de données, avec une erreur quadratique moyenne (RMSE) et une erreur absolue moyenne (MAE) de 10,59 / 7,46 et 10,15 / 8,48 respectivement. La meilleure performance de la méthodologie proposée a été obtenue dans la prédiction des symptômes d'anxiété auto-déclarés sur notre ensemble de données, avec une RMSE/MAE de 9,94 / 7,88.Les résultats sont discutés en relation avec les limitations cliniques et techniques et des améliorations potentielles pour des travaux futurs sont proposées. / Depression is the most prevalent mood disorder worldwide having a significant impact on well-being and functionality, and important personal, family and societal effects. The early and accurate detection of signs related to depression could have many benefits for both clinicians and affected individuals. The present work aimed at developing and clinically testing a methodology able to detect visual signs of depression and support clinician decisions.Several analysis pipelines were implemented, focusing on motion representation algorithms, including Local Curvelet Binary Patterns-Three Orthogonal Planes (LCBP-TOP), Local Curvelet Binary Patterns- Pairwise Orthogonal Planes (LCBP-POP), Landmark Motion History Images (LMHI), and Gabor Motion History Image (GMHI). These motion representation methods were combined with different appearance-based feature extraction algorithms, namely Local Binary Patterns (LBP), Histogram of Oriented Gradients (HOG), Local Phase Quantization (LPQ), as well as Visual Graphic Geometry (VGG) features based on transfer learning from deep learning networks. The proposed methods were tested on two benchmark datasets, the AVEC and the Distress Analysis Interview Corpus - Wizard of Oz (DAICWOZ), which were recorded from non-diagnosed individuals and annotated based on self-report depression assessment instruments. A novel dataset was also developed to include patients with a clinical diagnosis of depression (n=20) as well as healthy volunteers (n=45).Two different types of depression assessment were tested on the available datasets, categorical (classification) and continuous (regression). The MHI with VGG for the AVEC’14 benchmark dataset outperformed the state-of-the-art with 87.4% F1-Score for binary categorical assessment. For continuous assessment of self-reported depression symptoms, MHI combined with HOG and VGG performed at state-of-the-art levels on both the AVEC’14 dataset and our dataset, with Root Mean Squared Error (RMSE) and Mean Absolute Error (MAE) of 10.59/7.46 and 10.15/8.48, respectively. The best performance of the proposed methodology was achieved in predicting self-reported anxiety symptoms in our dataset, with RMSE/MAE of 9.94/7.88.Results are discussed in relation to clinical and technical limitations and potential improvements in future work.
149

Classification de données massives de télédétection / Machine learning for classification of big remote sensing data

Audebert, Nicolas 17 October 2018 (has links)
La multiplication des sources de données et la mise à disposition de systèmes d'imagerie à haute résolution a fait rentrer l'observation de la Terre dans le monde du big data. Cela a permis l'émergence de nouvelles applications (étude de la répartition des sols par data mining, etc.) et a rendu possible l'application d'outils statistiques venant des domaines de l'apprentissage automatique et de la vision par ordinateur. Cette thèse cherche à concevoir et implémenter un modèle de classification bénéficiant de l'existence de grande bases de données haute résolution (si possible, annotées) et capable de générer des cartes sémantiques selon diverses thématiques. Les applications visés incluent la cartographie de zones urbaines ainsi que l'étude de la géologie et de la végétation à des fins industrielles.L'objectif de la thèse est de développer de nouveaux outils statistiques pour la classification d'images aériennes et satellitaires. Des approches d'apprentissage supervisé telles que les réseaux de neurones profonds, surpassant l'état-de-l'art en combinant des caractéristiques locales des images et bénéficiant d'une grande quantité de données annotées, seront particulièrement étudiées. Les principales problématiques sont les suivantes : (a) la prédiction structurée (comment introduire la structure spatial et spectral dans l'apprentissage ?), (b) la fusion de données hétérogènes (comment fusionner des données SAR, hyperspectrales et Lidar ?), (c) la cohérence physique du modèle (comment inclure des connaissances physiques a priori dans le modèle ?) et (d) le passage à l'échelle (comment rendre les solutions proposées capables de traiter une quantité massive de données ?). / Thanks to high resolution imaging systems and multiplication of data sources, earth observation(EO) with satellite or aerial images has entered the age of big data. This allows the development of new applications (EO data mining, large-scale land-use classification, etc.) and the use of tools from information retrieval, statistical learning and computer vision that were not possible before due to the lack of data. This project is about designing an efficient classification scheme that can benefit from very high resolution and large datasets (if possible labelled) for creating thematic maps. Targeted applications include urban land use, geology and vegetation for industrial purposes.The PhD thesis objective will be to develop new statistical tools for classification of aerial andsatellite image. Beyond state-of-art approaches that combine a local spatial characterization of the image content and supervised learning, machine learning approaches which take benefit from large labeled datasets for training classifiers such that Deep Neural Networks will be particularly investigated. The main issues are (a) structured prediction (how to incorporate knowledge about the underlying spatial and contextual structure), (b) data fusion from various sensors (how to merge heterogeneous data such as SAR, hyperspectral and Lidar into the learning process ?), (c) physical plausibility of the analysis (how to include prior physical knowledge in the classifier ?) and (d) scalability (how to make the proposed solutions tractable in presence of Big RemoteSensing Data ?)
150

Machine vision for the determination of identity, orientation and position of two dimensional industrial components

English, Jonathan January 1996 (has links)
No description available.

Page generated in 0.0263 seconds