• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 20
  • 11
  • 8
  • 2
  • 1
  • Tagged with
  • 147
  • 147
  • 46
  • 40
  • 26
  • 22
  • 21
  • 20
  • 18
  • 18
  • 14
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Statistical Methods for Image Change Detection with Uncertainty

Lingg, Andrew James January 2012 (has links)
No description available.
122

Sensing dictionary construction for orthogonal matching pursuit algorithm in compressive sensing

Li, Bo 10 1900 (has links)
<p>In compressive sensing, the fundamental problem is to reconstruct sparse signal from its nonadaptive insufficient linear measurement. Besides sparse signal reconstruction algorithms, measurement matrix or measurement dictionary plays an important part in sparse signal recovery. Orthogonal Matching Pursuit (OMP) algorithm, which is widely used in compressive sensing, is especially affected by measurement dictionary. Measurement dictionary with small restricted isometry constant or coherence could improve the performance of OMP algorithm. Based on measurement dictionary, sensing dictionary can be constructed and can be incorporated into OMP algorithm. In this thesis, two methods are proposed to design sensing dictionary. In the first method, sensing dictionary design problem is formulated as a linear programming problem. The solution is unique and can be obtained by standard linear programming method such as primal-dual interior point method. The major drawback of linear programming based method is its high computational complexity. The second method is termed sensing dictionary designing algorithm. In this algorithm, each atom of sensing dictionary is designed independently to reduce the maximal magnitude of its inner product with measurement dictionary. Compared with linear programming based method, the proposed sensing dictionary design algorithm is of low computational complexity and the performance is similar. Simulation results indicate that both of linear programming based method and the proposed sensing dictionary designing algorithm can design sensing dictionary with small mutual coherence and cumulative coherence. When the designed sensing dictionary is applied to OMP algorithm, the performance of OMP algorithm improves.</p> / Master of Science in Electrical and Computer Engineering (MSECE)
123

Stand-alone Dual Sensing Single Pixel Camera in SWIR

Oja, Martin, Olsson, Sebastian January 2019 (has links)
A Single pixel camera is just that, a camera that uses only a single pixel to take images. Though, it is a bit more to it than just a pixel. It requires several components which will be explained in the thesis. For it to be viable it also needs the sampling technology Compressive sensing which compresses the data in the sampling stage, thus reducing the amount of data required to be sampled in order to reconstruct an image. This thesis will present the method of building an SPC with the required hardware and software. Different types of experiments, such as detection of small changes in a scene and different wavelength bands, has been conducted in order to test the performance and application areas for the SPC. The resulting system is able to produce images of resolutions up to 512x512 pixels. Disturbances such as movement in the scene or the camera itself being shaken became less of a problem with the addition of a second pixel. This thesis proves that an SPC is a viable technology with many different areas of application and it is a relatively cheap way of making a camera for the infrared spectrum.
124

Récepteur radiofréquence basé sur l’échantillonnage parcimonieux pour de l'extraction de caractéristiques dans les applications de radio cognitive / Radiofrequency receiver based on compressive sampling for feature extraction in cognitive radio applications

Marnat, Marguerite 29 November 2018 (has links)
Cette thèse traite de la conception de récepteurs radiofréquences basés sur l'acquisition compressée pour de l'estimation paramétrique en radio cognitive.L'acquisition compressée est un changement de paradigme dans la conversion analogique-numérique qui permet de s'affranchir de la fréquence d'échantillonnage de Nyquist.Dans ces travaux, les estimations sont effectuées directement sur les échantillons compressés vu le coût prohibitif de la reconstruction du signal d'entrée.Tout d'abord, l'aspect architecture du récepteur est abordé,avec notamment le choix des codes de mélange pour le convertisseur modulé à large bande (MWC).Une analyse haut niveau des propriétés de la matrice d'acquisition, à savoir la cohérence pour réduire le nombre de mesures et l'isométrie pour la robustesse au bruit,est menée puis validée par une plateforme de simulation.Enfin l'estimation paramétrique à partir des échantillons compressés est abordée à travers la borne de Cramér-Rao sur la variance d'un estimateur non biaisé.Une forme analytique de la matrice de Fisher est établie sous certaines hypothèses et permet de dissocier les effets de la compression et de la création de diversité.L'influence du processus d'acquisition compressée, notamment le couplage entre paramètres et la fuite spectrale, est illustré par l'exemple. / This work deals with the topic of radiofrequency receivers based on Compressive Sampling for feature extraction in Cognitive Radio.Compressive Sampling is a paradigm shift in analog to digital conversion that bypasses the Nyquist sampling frequency.In this work, estimations are carried out directly on the compressed samples due to the prohibitive cost of signal reconstruction.First, the receiver architecture is considered, in particular through the choice of the mixing codes of the Modulated Wideband Converter.A high-level analysis on properties of the sensing matrix, coherence to reduce the number of measurement and isometry for noise robustness,is carried out and validated by a simulation platform.Finally, parametric estimation based on compressed samples is tackled through the prism of the Cram'{e}r-Rao lower bound on unbiased estimators.A closed form expression of the Fisher matrix is established under certain assumptions and enables to dissociate the effects of compression and diversity creation.The influence of Compressive Sampling on estimation bounds, in particular coupling between parameters and spectral leakage, is illustrated by the example.
125

visual tracking and object motion prediction for intelligent vehicles / Suivi visuel et prédiction de mouvement des objets pour véhicules intelligents

Yang, Tao 02 May 2019 (has links)
Le suivi d’objets et la prédiction de mouvement sont des aspects importants pour les véhicules autonomes. Tout d'abord, nous avons développé une méthode de suivi mono-objet en utilisant le compressive tracking, afin de corriger le suivi à base de flux optique et d’arriver ainsi à un compromis entre performance et vitesse de traitement. Compte tenu de l'efficacité de l'extraction de caractéristiques comprimées (compressive features), nous avons appliqué cette méthode de suivi au cas multi-objets pour améliorer les performances sans trop ralentir la vitesse de traitement. Deuxièmement, nous avons amélioré la méthode de suivi mono-objet basée sur DCF en utilisant des caractéristiques provenant d’un CNN multicouches, une analyse de fiabilité spatiale (via un masque d'objet) ainsi qu’une stratégie conditionnelle de mise à jour de modèle. Ensuite, nous avons appliqué la méthode améliorée au cas du suivi multi-objets. Les VGGNet-19 et DCFNet pré-entraînés sont testés respectivement en tant qu’extracteurs de caractéristiques. Le modèle discriminant réalisé par DCF est pris en compte dans l’étape d'association des données. Troisièmement, deux modèles LSTM (seq2seq et seq2dense) pour la prédiction de mouvement des véhicules et piétons dans le système de référence de la caméra sont proposés. En se basant sur des données visuelles et un nuage de points 3D (LiDAR), un système de suivi multi-objets basé sur un filtre de Kalman avec un détecteur 3D sont utilisés pour générer les trajectoires des objets à tester. Les modèles proposées et le modèle de régression polynomiale, considéré comme méthode de référence, sont comparés et évalués. / Object tracking and motion prediction are important for autonomous vehicles and can be applied in many other fields. First, we design a single object tracker using compressive tracking to correct the optical flow tracking in order to achieve a balance between performance and processing speed. Considering the efficiency of compressive feature extraction, we apply this tracker to multi-object tracking to improve the performance without slowing down too much speed. Second, we improve the DCF based single object tracker by introducing multi-layer CNN features, spatial reliability analysis (through a foreground mask) and conditionally model updating strategy. Then, we apply the DCF based CNN tracker to multi-object tracking. The pre-trained VGGNet-19 and DCFNet are tested as feature extractors respectively. The discriminative model achieved by DCF is considered for data association. Third, two proposed LSTM models (seq2seq and seq2dense) for motion prediction of vehicles and pedestrians in the camera coordinate are proposed. Based on visual data and 3D points cloud (LiDAR), a Kalman filter based multi-object tracking system with a 3D detector are used to generate the object trajectories for testing. The proposed models, and polynomial regression model, considered as baseline, are compared for evaluation.
126

Development of an Innovative System for the Reconstruction of New Generation Satellite Images

LORENZI, Luca 29 November 2012 (has links) (PDF)
Les satellites de télédétection sont devenus incontournables pour la société civile. En effet, les images satellites ont été exploitées avec succès pour traiter plusieurs applications, notamment la surveillance de l'environnement et de la prévention des catastrophes naturelles. Dans les dernières années, l'augmentation de la disponibilité de très haute résolution spatiale (THR) d'images de télédétection abouti à de nouvelles applications potentiellement pertinentes liées au suivi d'utilisation des sols et à la gestion environnementale. Cependant, les capteurs optiques, en raison du fait qu'ils acquièrent directement la lumière réfléchie par le soleil, ils peuvent souffrir de la présence de nuages dans le ciel et / ou d'ombres sur la terre. Il s'agit du problème des données manquantes, qui induit un problème important et crucial, en particulier dans le cas des images THR, où l'augmentation des détails géométriques induit une grande perte d'informations. Dans cette thèse, de nouvelles méthodologies de détection et de reconstruction de la région contenant des données manquantes dans les images THR sont proposées et appliquées sur les zones contaminées par la présence de nuages et / ou d'ombres. En particulier, les contributions méthodologiques proposées comprennent: i) une stratégie multirésolution d'inpainting visant à reconstruire les images contaminées par des nuages ; ii) une nouvelle combinaison d'information radiométrique et des informations de position spatiale dans deux noyaux spécifiques pour effectuer une meilleure reconstitution des régions contaminés par les nuages en adoptant une régression par méthode a vecteurs supports (RMVS) ; iii) l'exploitation de la théorie de l'échantillonnage compressé avec trois stratégies différentes (orthogonal matching pursuit, basis pursuit et une solution d'échantillonnage compressé, basé sur un algorithme génétique) pour la reconstruction d'images contaminés par des nuages; iv) une chaîne de traitement complète qui utilise une méthode à vecteurs de supports (SVM) pour la classification et la détection des zones d'ombre, puis une régression linéaire pour la reconstruction de ces zones, et enfin v) plusieurs critères d'évaluation promptes à évaluer la performance de reconstruction des zones d'ombre. Toutes ces méthodes ont été spécialement développées pour fonctionner avec des images très haute résolution. Les résultats expérimentaux menés sur des données réelles sont présentés afin de montrer et de confirmer la validité de toutes les méthodes proposées. Ils suggèrent que, malgré la complexité des problèmes, il est possible de récupérer de façon acceptable les zones manquantes masquées par les nuages ou rendues erronées les ombres.
127

Model design for algorithmic efficiency in electromagnetic sensing

Krueger, Kyle R. 13 January 2014 (has links)
The objective of the proposed research is to develop structural changes to the design and application of electromagnetic (EM) sensing models to more efficiently and accurately invert EM measurements to extract parameters for applications such as landmine detection. Two different acquisition modalities are addressed in this research: ground-penetrating radar (GPR) and electromagnetic induction (EMI) sensors. The models needed for practical three-dimensional (3D) spatial imaging typically become impractically large, with up to seven dimensions of parameters that need to be extracted. These parameters include, but are not limited to target type, 3D location, and 3D orientation. The new special structures for these models exploit properties such as shift invariance and tensor representation, which can be combined with strategic inversion techniques, including the Fast Fourier Transform and semidefinite programming. The structures dramatically reduce the amount of computation and can eliminate the need to store up to five dimensions of parameters while still accurately estimating them.
128

Ultra-wideband channel estimation with application towards time-of-arrival estimation

Liu, Ted C.-K. 25 August 2009 (has links)
Ultra-wideband (UWB) technology is the next viable solution for applications in wireless personal area network (WPAN), body area network (BAN) and wireless sensor network (WSN). However, as application evolves toward a more realistic situation, wideband channel characteristics such as pulse distortion must be accounted for in channel modeling. Furthermore, application-oriented services such as ranging and localization demand fast prototyping, real-time processing of measured data, and good low signal-to-noise ratio (SNR) performance. Despite the tremendous effort being vested in devising new receivers by the global research community, channel-estimating Rake receiver is still one of the most promising receivers that can offer superior performance to the suboptimal counterparts. However, acquiring Nyquist-rate samples costs substantial power and resource consumption and is a major obstacle to the feasible implementation of the asymptotic maximum likelihood (ML) channel estimator. In this thesis, we address all three aspects of the UWB impulse radio (UWB-IR), in three separate contributions. First, we study the {\it a priori} dependency of the CLEAN deconvolution with real-world measurements, and propose a high-resolution, multi-template deconvolution algorithm to enhance the channel estimation accuracy. This algorithm is shown to supersede its predecessors in terms of accuracy, energy capture and computational speed. Secondly, we propose a {\it regularized} least squares time-of-arrival (ToA) estimator with wavelet denoising to the problem of ranging and localization with UWB-IR. We devise a threshold selection framework based on the Neyman-Pearson (NP) criterion, and show the robustness of our algorithm by comparing with other ToA algorithms in both computer simulation and ranging measurements when advanced digital signal processing (DSP) is available. Finally, we propose a low-complexity ML (LC-ML) channel estimator to fully exploit the multipath diversity with Rake receiver with sub-Nyquist rate sampling. We derive the Cram\'er-Rao Lower Bound (CRLB) for the LC-ML, and perform simulation to compare our estimator with both the $\ell_1$-norm minimization technique and the conventional ML estimator.
129

Traitement du signal dans le domaine compressé et quantification sur un bit : deux outils pour les contextes sous contraintes de communication / Compressed-domain signal processing and one-bit quantization : two tools for contexts undercommunication constraints

Zebadúa, Augusto 11 December 2017 (has links)
La surveillance de phénomènes physiques à l’aide d’un réseau de capteurs (autonomes mais communicants) est fortement contrainte en consommation énergétique, principalement pour la transmission de données. Dans ce cadre, cette thèse propose des méthodes de traitement du signal permettant de réduire les communications sans compromettre la précision des calculs ultérieurs. La complexité de ces méthodes est réduite, de façon à ne consommer que peu d’énergie supplémentaire. Deux éléments servent à leur synthèse : la compression dès l’acquisition (Acquisition compressive) et la quantification grossière (sur 1 bit). D’abord, on étudie le corrélateur compressé, un estimateur qui permet d’évaluer les fonctions de corrélation, temps de retard et densités spectrales en exploitant directement des signaux compressés. Ses performances sont comparées au corrélateur usuel. Si le signal à traiter possède un support spectral étroit, l’estimateur proposé s’avère sensiblement meilleur que l’usuel. Ensuite, inspirés par les corrélateurs à forte quantification des années 50 et 60, deux nouveaux corrélateurs sont étudiés : le compressé sur 1 bit et le compressé hybride, qui peuvent également surpasser les performances de leurs contreparties non-compressées. Finalement, on montre la pertinence de ces méthodes pour les applications envisagées à travers l’exploitation de données réelles. / Monitoring physical phenomena by using a network of sensors (autonomous but interconnected) is highly constrained in energy consumption, mainly for data transmission. In this context, this thesis proposes signal processing tools to reduce communications without compromising computational accuracy in subsequent calculations. The complexity of these methods is reduced, so as to consume only little additional energy. Our two building blocks are compression during signal acquisition (Compressive Sensing) and CoarseQuantization (1 bit). We first study the Compressed Correlator, an estimator which allows for evaluating correlation functions, time-delay, and spectral densities directly from compressed signals. Its performance is compared with the usual correlator. As we show, if the signal of interest has limited frequency content, the proposed estimator significantly outperforms theconventional correlator. Then, inspired by the coarse quantization correlators from the 50s and 60s, two new correlators are studied: The 1-bit Compressed and the Hybrid Compressed, which can also outperform their uncompressed counterparts. Finally, we show the applicability of these methods in the context of interest through the exploitation of real data.
130

An?lise estat?stica do m?todo compressive sensing aplicado a dados s?smicos

Marinho, Eberton da Silva 22 August 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-03-09T22:35:46Z No. of bitstreams: 1 EbertonDaSilvaMarinho_TESE.pdf: 27289302 bytes, checksum: afbb77aed251ffa31c13cdae992f063a (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-03-13T21:12:47Z (GMT) No. of bitstreams: 1 EbertonDaSilvaMarinho_TESE.pdf: 27289302 bytes, checksum: afbb77aed251ffa31c13cdae992f063a (MD5) / Made available in DSpace on 2017-03-13T21:12:47Z (GMT). No. of bitstreams: 1 EbertonDaSilvaMarinho_TESE.pdf: 27289302 bytes, checksum: afbb77aed251ffa31c13cdae992f063a (MD5) Previous issue date: 2016-08-22 / O Compressive Sensing (CS) ? uma t?cnica de processamento de dados eficiente na recupera??o e constru??o de sinais a partir de uma taxa de amostragem menor que a requerida pelo teorema de Shannon-Nyquist. Esta t?cnica permite uma grande redu??o de dados para sinais que podem ser esparsamente representados. A Transformada Wavelet tem sido utilizada para comprimir e representar muitos sinais naturais, incluindo s?smicos, de uma forma esparsa. H? diversos algoritmos de reconstru??o de sinais que utilizam a t?cnica de CS, como por exemplo: o $\ell_1$-MAGIC, o Fast Bayesian Compressive Sensing (Fast BCS) e o Stagewise Orthogonal Matching Pursuit (StOMP). Esta tese compara a recupera??o de tra?os s?smicos sob uma perspectiva estat?stica usando diferentes m?todos do CS, transformadas wavelets e taxas de amostragens. Mediu-se a correla??o entre o Erro Relativo (ER) de recupera??o pelo CS e as medi??es: coeficiente de varia??o, assimetria, curtose e entropia do sinal original. Parece haver uma correla??o entre a curtose e entropia do sinal com o ER de reconstru??o pelo CS. Ademais, foi analizado a distribui??o do ER no CS. O $\ell_1$-MAGIC teve melhores resultados para taxas de amostragens at? 40%. Al?m disso, a distribui??o do ER no $\ell_1$-MAGIC teve mais histogramas normais, sim?tricos e mesoc?rticos que no Fast BCS. Entretanto, para taxas de amostragem acima de 50%, o Fast BCS mostrou um melhor desempenho em rela??o ? m?dia do ER.

Page generated in 0.0264 seconds