• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 10
  • 8
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 62
  • 62
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Classification de vocalises de mammifères marins en environnement sismique / Recognition of marine mammal vocalizations in seismic environment

Guilment, Thomas 21 June 2018 (has links)
En partenariat avec l’entreprise Sercel, la thèse concerne la mise en œuvre d’algorithmes de reconnaissance des sons émis par les mysticètes (baleines à fanons). Cessons peuvent être étudiés grâce aux systèmes de surveillance par acoustique passive. L’entreprise Sercel, par ses activités sismiques liées à la prospection pétrolière, a son propre logiciel pour détecter et localiser les sources d’énergie sonores sous-marines. Le travail de la thèse consiste dès lors à ajouter un module de reconnaissance pour identifier si l'énergie détectée et localisée correspond bien à un éventuel mysticète. Les campagnes de tirs sismiques étant onéreuses, la méthode utilisée doit pouvoir réduire la probabilité de fausse alarme, la reconnaissance pouvant infirmer la détection. La méthode proposée est basée sur l’apprentissage de dictionnaire. Elle est dynamique, modulaire, ne dépend que de peu de paramètres et est robuste aux fausses alarmes. Une expérimentation sur cinq types de vocalises est présentée. Nous obtenons un rappel moyen de 92.1 % tout en rejetant 97.3 % des bruits (persistants et transitoires). De plus, un coefficient de confiance est associé à chaque reconnaissance et permet de réaliser de l’apprentissage incrémental semi-supervisé. Enfin, nous proposons une méthode capable de gérer la détection et la reconnaissance conjointement. Ce « détecteur multiclasses » respecte au mieux les contraintes de gestion des fausses alarmes et permet d’identifier plusieurs types de vocalises au même instant. Cette méthode est bien adaptée au contexte industriel pour lequel elle est dédiée. Elle ouvre également des perspectives très prometteuses dans le contexte bioacoustique. / In partnership with Sercel, the thesis concerns the implementation of algorithms for recognizing the sounds emitted by mysticetes (baleen whales). These sounds can be studiedusing passive acoustic monitoring systems. Sercel, through its seismic activities related to oïl exploration, has its own software to detect and locate underwater sound energy sources. The thesis work therefore consists in adding a recognition module to identify if the detected andlocalized energy corresponds to a possible mysticete. Since seismic shooting campaigns areexpensive, the method used must be able to reduce the probability of false alarms, as recognitioncan invalidate detection. The proposed method is based on dictionary learning. It is dynamic, modular, depends on few parameters and is robust to false alarms. An experiment on five types of vocalizations is presented. We obtain an average recall of 92.1% while rejecting 97.3% of the noises (persistent and transient). In addition, a confidence coefficient is associated with each recognition and allows semi-supervised incremental learning to be achieved. Finally, we propose a method capable of managing detection and recognition together. This "multiclassdetector" best respects the constraints of false alarm management and allows several types of vocalizations to be identified at the same time. This method is well adapted to the industrial context for which it is dedicated. It also opens up very promising prospects in the bioacoustic context.
32

Um método iterativo e escalonável para super-resolução de imagens usando a interpolação DCT e representação esparsa. / Iterative and scalable image super-resolution method with DCT interpolation and sparse representation.

Saulo Roberto Sodré dos Reis 23 April 2014 (has links)
Num cenário em que dispositivos de aquisição de imagens e vídeo possuem recursos limitados ou as imagens disponíveis não possuem boa qualidade, as técnicas de super-resolução (SR) apresentam uma excelente alternativa para melhorar a qualidade das imagens. Nesta tese é apresentada uma proposta para super-resolução de imagem única que combina os benefícios da interpolação no domínio da transformada DCT e a eficiência dos métodos de reconstrução baseados no conceito de representação esparsa de sinais. A proposta busca aproveitar as melhorias já alcançadas na qualidade e eficiência computacional dos principais algoritmos de super-resolução existentes. O método de super-resolução proposto implementa algumas melhorias nas etapas de treinamento e reconstrução da imagem final. Na etapa de treinamento foi incluída uma nova etapa de extração de características utilizando técnicas de aguçamento por máscara de nitidez e construção de um novo dicionário. Esta estratégia busca extrair mais informações estruturais dos fragmentos de baixa e alta resolução do conjunto de treinamento e ao mesmo tempo reduzir o tamanho dos dicionários. Outra importante contribuição foi a inclusão de um processo iterativo e escalonável no algoritmo, reinserindo no conjunto de treinamento e na etapa de reconstrução, uma imagem de alta resolução obtida numa primeira iteração. Esta solução possibilitou uma melhora na qualidade da imagem de alta resolução final utilizando poucas imagens no conjunto de treinamento. As simulações computacionais demonstraram a capacidade do método proposto em produzir imagens com qualidade e com tempo computacional reduzido. / In a scenario in which the acquisition systems have limited resources or available images do not have good quality, the super-resolution (SR) techniques have become an excellent alternative for improving the image quality. In this thesis, we propose a single-image super-resolution (SR) method that combines the benefits of the DCT interpolation and efficiency of sparse representation method for image reconstruction. Also, the proposed method seeks to take advantage of the improvements already achieved in quality and computational efficiency of the existing SR algorithms. The proposed method implements some improvements in the dictionary training and the reconstruction process. A new dictionary was built by using an unsharp mask technique to characteristics extraction. Simultaneously, this strategy aim to extract more structural information of the low resolution and high resolution patches and reduce the dictionaries size. Another important contribution was the inclusion of an iterative and scalable process by reinserting the HR image obtained of first iteration. This solution aim to improve the quality of the final HR image using a few images in the training set. The results have demonstrated the ability of the proposed method to produce high quality images with reduced computational time.
33

Investigating Key Techniques to Leverage the Functionality of Ground/Wall Penetrating Radar

Zhang, Yu 01 January 2017 (has links)
Ground penetrating radar (GPR) has been extensively utilized as a highly efficient and non-destructive testing method for infrastructure evaluation, such as highway rebar detection, bridge decks inspection, asphalt pavement monitoring, underground pipe leakage detection, railroad ballast assessment, etc. The focus of this dissertation is to investigate the key techniques to tackle with GPR signal processing from three perspectives: (1) Removing or suppressing the radar clutter signal; (2) Detecting the underground target or the region of interest (RoI) in the GPR image; (3) Imaging the underground target to eliminate or alleviate the feature distortion and reconstructing the shape of the target with good fidelity. In the first part of this dissertation, a low-rank and sparse representation based approach is designed to remove the clutter produced by rough ground surface reflection for impulse radar. In the second part, Hilbert Transform and 2-D Renyi entropy based statistical analysis is explored to improve RoI detection efficiency and to reduce the computational cost for more sophisticated data post-processing. In the third part, a back-projection imaging algorithm is designed for both ground-coupled and air-coupled multistatic GPR configurations. Since the refraction phenomenon at the air-ground interface is considered and the spatial offsets between the transceiver antennas are compensated in this algorithm, the data points collected by receiver antennas in time domain can be accurately mapped back to the spatial domain and the targets can be imaged in the scene space under testing. Experimental results validate that the proposed three-stage cascade signal processing methodologies can improve the performance of GPR system.
34

Contributions to generic visual object categorization / Catégorisation automatique d'images

Fu, Huanzhang 14 December 2010 (has links)
Cette thèse de doctorat est consacrée à un sujet de recherche très porteur : la Catégorisation générique d’objets Visuels (VOC). En effet, les applications possibles sont très nombreuses, incluant l’indexation d’images et de vidéos, la vidéo surveillance, le contrôle d’accès de sécurité, le soutien à la conduite automobile, etc. En raison de ses nombreux verrous scientifiques, ce sujet est encore considéré comme l’un des problèmes les plus difficiles en vision par ordinateur et en reconnaissance de formes. Dans ce contexte, nous avons proposé dans ce travail de thèse plusieurs contributions, en particulier concernant les deux principaux éléments des méthodes résolvant les problèmes de VOC, notamment la sélection des descripteurs et la représentation d’images. Premièrement, un algorithme nomme "Embedded Sequential Forward feature Selection"(ESFS) a été proposé pour VOC. Son but est de sélectionner les descripteurs les plus discriminants afin d’obtenir une bonne performance pour la catégorisation. Il est principalement basé sur la méthode de recherche sous-optimale couramment utilisée "Sequential Forward Selection" (SFS), qui repose sur le principe simple d’ajouter progressivement les descripteurs les plus pertinents. Cependant, ESFS non seulement ajoute progressivement les descripteurs les plus pertinents à chaque étape mais de plus les fusionne d’une manière intégrée grâce à la notion de fonctions de masses combinées empruntée à la théorie de l’évidence qui offre également l’avantage d’obtenir un coût de calcul beaucoup plus faible que celui de SFS original. Deuxièmement, nous avons proposé deux nouvelles représentations d’images pour modéliser le contenu visuel d’une image : la Représentation d’Image basée sur la Modélisation Polynomiale et les Mesures Statistiques, appelées respectivement PMIR et SMIR. Elles permettent de surmonter l’inconvénient principal de la méthode populaire "bag of features" qui est la difficulté de fixer la taille optimale du vocabulaire visuel. Elles ont été testées avec nos descripteurs bases région ainsi que les descripteurs SIFT. Deux stratégies différentes de fusion, précoce et tardive, ont également été considérées afin de fusionner les informations venant des "canaux «différents représentés par les différents types de descripteurs. Troisièmement, nous avons proposé deux approches pour VOC en s’appuyant sur la représentation sparse. La première méthode est reconstructive (R_SROC) alors que la deuxième est reconstructive et discriminative (RD_SROC). En effet, le modèle de représentation sparse a été utilisé originalement dans le domaine du traitement du signal comme un outil puissant pour acquérir, représenter et compresser des signaux de grande dimension. Ainsi, nous avons proposé une adaptation de ces principes intéressants au problème de VOC. R_SROC repose sur l’hypothèse intuitive que l’image peut être représentée par une combinaison linéaire des images d’apprentissage de la même catégorie. [...] / This thesis is dedicated to the active research topic of generic Visual Object Categorization(VOC), which can be widely used in many applications such as videoindexation and retrieval, video monitoring, security access control, automobile drivingsupport etc. Due to many realistic difficulties, it is still considered to be one ofthe most challenging problems in computer vision and pattern recognition. In thiscontext, we have proposed in this thesis our contributions, especially concerning thetwo main components of the methods addressing VOC problems, namely featureselection and image representation.Firstly, an Embedded Sequential Forward feature Selection algorithm (ESFS)has been proposed for VOC. Its aim is to select the most discriminant features forobtaining a good performance for the categorization. It is mainly based on thecommonly used sub-optimal search method Sequential Forward Selection (SFS),which relies on the simple principle to add incrementally most relevant features.However, ESFS not only adds incrementally most relevant features in each stepbut also merges them in an embedded way thanks to the concept of combinedmass functions from the evidence theory which also offers the benefit of obtaining acomputational cost much lower than the one of original SFS.Secondly, we have proposed novel image representations to model the visualcontent of an image, namely Polynomial Modeling and Statistical Measures basedImage Representation, called PMIR and SMIR respectively. They allow to overcomethe main drawback of the popular "bag of features" method which is the difficultyto fix the optimal size of the visual vocabulary. They have been tested along withour proposed region based features and SIFT. Two different fusion strategies, earlyand late, have also been considered to merge information from different "channels"represented by the different types of features.Thirdly, we have proposed two approaches for VOC relying on sparse representation,including a reconstructive method (R_SROC) as well as a reconstructiveand discriminative one (RD_SROC). Indeed, sparse representation model has beenoriginally used in signal processing as a powerful tool for acquiring, representingand compressing the high-dimensional signals. Thus, we have proposed to adaptthese interesting principles to the VOC problem. R_SROC relies on the intuitiveassumption that an image can be represented by a linear combination of trainingimages from the same category. Therefore, the sparse representations of images arefirst computed through solving the ℓ1 norm minimization problem and then usedas new feature vectors for images to be classified by traditional classifiers such asSVM. To improve the discrimination ability of the sparse representation to betterfit the classification problem, we have also proposed RD_SROC which includes adiscrimination term, such as Fisher discrimination measure or the output of a SVMclassifier, to the standard sparse representation objective function in order to learna reconstructive and discriminative dictionary. Moreover, we have also proposedChapter 0. Abstractto combine the reconstructive and discriminative dictionary and the adapted purereconstructive dictionary for a given category so that the discrimination power canfurther be increased.The efficiency of all the methods proposed in this thesis has been evaluated onpopular image datasets including SIMPLIcity, Caltech101 and Pascal2007.
35

Near real-time estimation of the seismic source parameters in a compressed domain

Vera Rodriguez, Ismael A. Unknown Date
No description available.
36

Investigating Key Techniques to Leverage the Functionality of Ground/Wall Penetrating Radar

Zhang, Yu 01 January 2017 (has links)
Ground penetrating radar (GPR) has been extensively utilized as a highly efficient and non-destructive testing method for infrastructure evaluation, such as highway rebar detection, bridge decks inspection, asphalt pavement monitoring, underground pipe leakage detection, railroad ballast assessment, etc. The focus of this dissertation is to investigate the key techniques to tackle with GPR signal processing from three perspectives: (1) Removing or suppressing the radar clutter signal; (2) Detecting the underground target or the region of interest (RoI) in the GPR image; (3) Imaging the underground target to eliminate or alleviate the feature distortion and reconstructing the shape of the target with good fidelity. In the first part of this dissertation, a low-rank and sparse representation based approach is designed to remove the clutter produced by rough ground surface reflection for impulse radar. In the second part, Hilbert Transform and 2-D Renyi entropy based statistical analysis is explored to improve RoI detection efficiency and to reduce the computational cost for more sophisticated data post-processing. In the third part, a back-projection imaging algorithm is designed for both ground-coupled and air-coupled multistatic GPR configurations. Since the refraction phenomenon at the air-ground interface is considered and the spatial offsets between the transceiver antennas are compensated in this algorithm, the data points collected by receiver antennas in time domain can be accurately mapped back to the spatial domain and the targets can be imaged in the scene space under testing. Experimental results validate that the proposed three-stage cascade signal processing methodologies can improve the performance of GPR system.
37

Aplikace řídkých reprezentací dat / Applications of sparse data representations

Navrátilová, Barbora January 2014 (has links)
The goal of this thesis is to demonstrate practical application of sparse data representation in the processing of sparse signals. For solving several example problems - denoising, dequantization, and sparse signal decomposition - convex optimization was used. The solutions were implemented in the Matlab environment. For each of the problems, there are two solutions - one for one-dimensional, and one for two-dimensional signal.
38

Localisation de sources par méthodes à haute résolution et par analyse parcimonieuse / Source localization by high-resolution methods and parsimony analysis

Ma, Hua 24 June 2011 (has links)
Cette thèse a pour but d‘estimer la position et la puissance de sources sonores ponctuelles à l'aide d‘une antenne acoustique. Nous nous intéressons d‘abord à la directivité des antennes acoustiques pondérées. On montre qu‘une telle antenne, appelée antenne conventionnelle, même si elle est à directivité optimale, est inutilisable pour localiser plusieurs sources sonores. Des traitements adaptatifs d‘antenne sont donc exigés et les méthodes dites à haute résolution sont introduites. Elles sont basées sur l‘estimation de la matrice de covariance des signaux issus des capteurs et présentent l‘avantage de s‘affranchir des limitations naturelles du traitement d‘antenne conventionnel. Cependant, ces méthodes nécessitent l‘emploi d‘un modèle de propagation et sont donc par nature peu robustes aux erreurs de modèle, ce qui peut être parfois un handicap et dégrader leurs performances. Par la suite, nous présentons une nouvelle méthode de séparation des sources utilisant une représentation parcimonieuse des signaux. Nous montrons que ses performances sont meilleures que celles obtenues par les méthodes à haute résolution et notre algorithme parvient à une bonne résolution spatiale, même sous des conditions défavorables. Cette méthode est appliquée aux sources corrélées et décorrélées, à bande étroite et à large bande, en champ proche et en champ lointain. Pour finir, nous présentons des méthodes pour estimer la puissance des sources sonores. Des simulations numériques et des expérimentations en chambre anéchoïque sont effectuées afin de vérifier et de valider les analyses et les résultats théoriques / This thesis concerns the problem of sensor array source localization and power estimation by an acoustical array of sensors. In first the acoustical array directivity is treated. It is shown that such array is not useful for the localization of multiple sources. Adaptive arrays and high resolution methods are then introduced. They are based on the estimation of the sensor output covariance matrix and their performances overcome the natural limitations of the weighted beamforming processing. However, these methods require the use of a propagation model and are not robust to model errors. We present a new method which is an application of sparse regularization methodology to acoustical source localization using an acoustical array. Its performances are better than high-resolution methods and this method works very well in the case of correlated or uncorrelated signals, narrow band or wideband signals, near field or far field environments. Finally, a power estimation of sound sources by an acoustical array is presented. Numerical and experimental results in an anechoic room are presented showing the effectiveness of theoretical results
39

Sparse representations in vibration-based rolling element bearing diagnostics / Représentations parcimonieuses pour le diagnostic par analyse vibratoire des roulements mécaniques

Xin, Ge 22 June 2017 (has links)
Bien que le diagnostic des roulements par analyse vibratoire soit un domaine très développé, la recherche sur les représentations parcimonieuses des signaux de vibration est encore nouvelle et difficile pour le diagnostic des machines tournantes. Dans cette thèse, de méthodes nouvelles ont été développées, au moyen de différents modèles stochastiques, associées à des algorithmes efficaces afin de servir l’industrie dans le diagnostic des roulements. Tout d’abord, les modèles parcimonieux présentés dans la littérature sont revus. Les principales publications concernant le diagnostic des machines tournantes ont également été considérées. Enfin, en discutant des avantages et des inconvénients des représentations parcimonieuses, une interprétation des structures creuses d’un point de vue Bayésien est proposée, ce qui donne lieu à deux nouveaux modèles de diagnostic des machines tournantes. Dans un second temps, un nouveau modèle stochastique est proposé : il introduit une variable cachée relative à l’apparition d’impacts et estime le contenu spectral des transitoires correspondants ainsi que le spectre du bruit de fond. Cela donne lieu à un algorithme de détection automatique - sans besoin de pré-filtrage manuel - à partir duquel les fréquences de défaut peuvent être révélées. Le même algorithme permet également de filtrer le signal de défaut de manière très efficace par rapport à d’autres approches basées sur l’hypothèse stationnaire. La performance de l’algorithme est étudiée sur des signaux synthétiques. L’efficacité et la robustesse de la méthode sont également vérifiées sur les signaux de vibration mesurés sur un banc d’essai (engrenages et paliers). Les résultats sont meilleurs ou au moins équivalents à ceux de l’analyse d’enveloppes classique et du kurtogramme rapide. Dans un troisième temps, un nouveau schéma pour l’extraction de signaux cyclostationnaires (CS) est proposé. En considérant la variance périodique en tant que variable cachée, un filtre temporel est conçu de manière à obtenir la reconstruction intégrale des signaux CS caractérisés par une fréquence cyclique préétablie, qui peut être connue à priori ou estimée à partir de la corrélation spectrale. Un intérêt particulier de la méthode est sa robustesse lorsqu’elle est appliquée sur des données expérimentales ainsi qu’une capacité d’extraction supérieure par rapport au filtre de Wiener conventionnel. Finalement, ces exemples expérimentaux témoignent de l’utilisation polyvalente de la méthode à des fins de diagnostic de signaux composés. Pour finir, une analyse comparée utilisant le calcul rapide de la corrélation spectrale est réalisée sur une base de données publiquement disponible et largement utilisée. C’est un point crucial qui fixe un défis non-trivial à résoudre. / Although vibration-based rolling element bearing diagnostics is a very well-developed field, the research on sparse representations of vibration signals is yet new and challenging for machine diagnosis. In this thesis, several novel methods have been developed, by means of different stochastic models, associated with their effective algorithms so as to serve the industry in rolling element bearing diagnostics. First, the sparsity-based model (sparse code, in natural image processing) is investigated based on the current literature. The historical background of sparse representations has been inquired in the field of natural scenes. Along three aspects, its mathematical model with corresponding algorithms has been categorized and presented as a fundamental premise; the main publications are therefore surveyed in the literature on machinery fault diagnosis; finally, an interpretation of sparse structure in the Bayesian viewpoint is proposed which then gives rise to two novel models for machinery fault diagnosis. Second, a new stochastic model is introduced to address this issue: it introduces a hidden variable to indicate the occurrence of the impacts and estimates the spectral content of the corresponding transients together with the spectrum of background noise. This gives rise to an automatic detection algorithm – with no need of manual prefiltering as is the case with the envelope spectrum – from which fault frequencies can be revealed. The same algorithm also makes possible to filter out the fault signal in a very efficient way as compared to other approaches based on the stationary assumption. The performance is investigated on synthetic signals with a high noise-to-signal ratio and also in the case of a mixture of two independent transients. The effectiveness and robustness of the method are also verified on vibration signals measured on a test-bench (gears and bearings). Results are found superior or at least equivalent to those of conventional envelope analysis and fast kurtogram. Third, a novel scheme for extracting cyclostationary (CS) signals is proposed. By regularizing the periodic variance as hidden variables, a time-varying filter is designed so as to achieve the full-band reconstruction of CS signals characterized by some pre-set characteristic frequency. Of particular interest is the robustness on experimental data sets and superior extraction capability over the conventional Wiener filter. It not only deals with the bearing fault at an incipient stage, but it even works for the installation problem and the case of two sources, i.e. bearing and gear faults together. Eventually, these experimental examples evidence its versatile usage on diagnostic analysis of compound signals. Fourth, a benchmark analysis by using the fast computation of the spectral correlation is provided. One crucial point is to move forward the benchmark study of the CWRU data set by uncovering its own unique characteristics.
40

Ré-identification de personnes à partir des séquences vidéo / Person re-identification from video sequence

Ibn Khedher, Mohamed 01 July 2014 (has links)
Cette thèse s'inscrit dans le contexte de la vidéo surveillance et s'intéresse à la ré-identification de personnes dans un réseau de caméras à champs disjoints. La ré-identification consiste à déterminer si une personne quitte le champ d'une caméra et réapparait dans une autre. Elle est particulièrement difficile car l'apparence de la personne change de manière significative à cause de différents facteurs. Nous proposons d'exploiter la complémentarité de l'apparence de la personne et son style de mouvement pour la décrire d'une manière appropriée aux facteurs de complexité. C'est une nouvelle approche car la ré-identification a été traitée par des approches d'apparence. Les contributions majeures proposées concernent: la description de la personne et l'appariement des primitives. Nous étudions deux scénarios de ré-identification : simple et complexe. Dans le scénario simple, nous étudions la faisabilité de deux approches : approche biométrique basée sur la démarche et approche d'apparence fondée sur des points d'intérêt (PI) spatiaux et des primitives de couleur. Dans le scénario complexe, nous proposons de fusionner des primitives d'apparence et de mouvement. Nous décrivons le mouvement par des Pis spatio-temporels et l'apparence par des PIs spatiaux. Pour l'appariement, nous utilisons la représentation parcimonieuse comme méthode d'appariement local entre les PIs. Le schéma de fusion est fondé sur le calcul de la somme pondérée des votes des PIs et ensuite l'application de la règle de vote majoritaire. Nous proposons également une analyse d'erreurs permettant d'identifier les sources d'erreurs de notre système pour dégager les pistes d'amélioration les plus prometteuses / This thesis focuses on the problem of hu man re-identification through a network of cameras with non overlapping fields of view. Human re-identification is defined as the task of determining if a persan leaving the field of one camera reappears in another. It is particularly difficult because of persons' significant appearance change within different cameras vision fields due to various factors. In this work, we propose to exploit the complementarity of the person's appearance and style of movement that leads to a description that is more robust with respect to various complexity factors. This is a new approach for the re-identification problem that is usually treated by appearance methods only. The major contributions proposed in this work include: person's description and features matching. First we study the re-identification problem and classify it into two scenarios: simple and complex. In the simple scenario, we study the feasibility of two approaches: a biometric approach based on gait and an appearance approach based on spatial Interest Points (IPs) and color features. In the complex scenario, we propose to exploit a fusion strategy of two complementary features provided by appearance and motion descriptions. We describe motion using spatiotemporal IPs, and use the spatial IPs for describing the appearance. For feature matching, we use sparse representation as a local matching method between IPs. The fusion strategy is based on the weighted sum of matched IPs votes and then applying the rule of majority vote. Moreover, we have carried out an error analysis to identify the sources of errors in our proposed system to identify the most promising areas for improvement

Page generated in 0.1184 seconds