31 |
Identification And Localization On A Wireless Magnetic Sensor NetworkBaghaee, Sajjad 01 June 2012 (has links) (PDF)
This study focused on using magnetic sensors for localization and identification of targets with a wireless sensor network (WSN). A wireless sensor network with MICAz motes was set up
utilizing a centralized tree-based system. The MTS310, which is equipped with a 2-axis magnetic sensor was used as the sensor board on MICAz motes. The use of magnetic sensors in wireless
sensor networks is a topic that has gained limited attention in comparison to that of other sensors. Research has generally focused on the detection of large ferromagnetic targets (e.g., cars and airplanes). Moreover, the changes in the magnetic field intensity measured by the sensor have been used to obtain simple information, such as target direction or whether or not the target has passed a certain point. This work aims at understanding the sensing limitations of magnetic sensors by considering small-scale targets moving within a 30 cm radius. Four heavy iron bars were used as test targets in this study. Target detection, identification and sequential localization were accomplished using the Minimum Euclidean Distance (MED) method. The results show the accuracy of this method for this job. Different forms of sensor sensing region discretization were
considered. Target identification was done on the boundaries of sensing regions. Different gateways were selected as entrance point for identification point and the results of them were compared with each other. An online ILS system was implemented and continuous movements of the ferromagnetic objects were monitored. The undesirable factors which affect the
measurements were discussed and techniques to reduce or eliminate faulty measurements are presented. A magnetic sensor orientation detector and set/reset strap have been designed and
fabricated. Orthogonal Matching Pursuit (OMP) algorithm was proposed for multiple sensors multiple target case in ILS systems as a future work. This study can then be used to design energy-efficient, intelligent magnetic sensor networks
|
32 |
Ανάπτυξη συστήματος διάγνωσης εμβρυικής υποξίας και πρόληψης άμεσων και απώτερων σοβαρών επιπλοκών με εφαρμογή σύγχρονων τεχνικών επεξεργασίας και ανάλυσης σήματοςΒάσιος, Γρηγόριος 22 September 2009 (has links)
Τα τελευταία χρόνια τόσο σε διεθνές όσο και σε εθνικό επίπεδο έχει δοθεί βαρύτητα στην ανίχνευση της εμβρυϊκής υποξίας κατά τη διάρκεια της κύησης και του τοκετού, καθώς είναι σαφής η άμεση συσχέτισή της με βραχυπρόθεσμες και απώτερες επιπλοκές του νεογνού. Η επιτυχής έκβαση ενός τοκετού εξαρτάται κυρίως από τον έγκαιρο εντοπισμό της δημιουργίας της εμβρυϊκής υποξίας και η ανάγκη για την υλοποίηση υπολογιστικών συστημάτων για την έγκαιρη διάγνωσή της είναι συνεχής και αυξανόμενη.
Στα πλαίσια της διδακτορικής διατριβής σχεδιάστηκε και αναπτύχθηκε ένα πρωτότυπο σύστημα διάγνωσης της πρόωρης οξέωσης του εμβρύου κατά τη διάρκεια του τοκετού, το οποίο βασίστηκε στην επεξεργασία του εμβρυϊκού καρδιακού ρυθμού και στην ανάλυση της εμβρυϊκής παλμικής οξυμετρίας. Στόχος του συγκεκριμένου συστήματος είναι να αποτελέσει ένα βοηθητικό σύστημα διάγνωσης της εμβρυϊκής υποξίας και να συμβάλει στη λήψη αποφάσεων σχετικά με το χρόνο αποπεράτωσης του τοκετού, με σκοπό την πρόληψη άμεσων και απώτερων σοβαρών νεογνικών επιπλοκών.
Ειδικότερα, η υλοποίηση του προτεινόμενου συστήματος βασίστηκε στην εφαρμογή του συνεχούς μετασχηματισμού κυματιδίων και της προσαρμοστικής προσέγγισης με τη χρήση του αλγορίθμου matching pursuit για την ανάδειξη της «κρυμμένης» πληροφορίας που μεταφέρει ο εμβρυϊκός καρδιακός ρυθμός στις πολύ χαμηλές συχνότητες.
Συνδυάζοντας τα αποτελέσματα των παραπάνω τεχνικών επεξεργασίας, και ιδιαίτερα του αλγορίθμου matching pursuit, με τον προσδιορισμό του συνολικού χρόνου χαμηλού κορεσμού του αρτηριακού εμβρυϊκού αίματος, υλοποιήθηκε, με τη χρήση ενός διαμεριστικού αλγορίθμου, το προτεινόμενο σύστημα.
Η ανάπτυξη αυτού του συστήματος αποτελεί μια καινοτόμα και πολλά υποσχόμενη προσέγγιση στην προσπάθεια της διάγνωσης της εμβρυϊκής υποξίας δεδομένου ότι παρουσιάζει υψηλή ειδικότητα και θετική προγνωστική αξία συμβάλοντας στην επίλυση του σοβαρότερου μειονεκτήματος της κλασσικής καρδιοτοκογραφίας που είναι η χαμηλή τιμή των αντίστοιχων προγνωστικών δεικτών. / In the last few years the research community has given great attention to the detection of antepartum and intrapartum fetal hypoxia, given its direct impact on both short- and long-term neonatal morbidity and mortality. The successful completion of labor depends mainly on the prompt identification of fetal hypoxia. The development of computational systems for the early diagnosis of restricted fetal oxygen supply is therefore of critical importance.
This thesis involves the design and development of an innovative system for the early detection of acidosis, which was based on the fetal heart rate processing and fetal pulse oximetry analysis. The aim of the system is to comprise a computer-aided diagnostic system of fetal hypoxia and to contribute to the decision making regarding the labor completion time, in order to prevent short- and long-term neonatal complications.
Specifically, the development of the system was based on the implementation of continuous wavelet transform and adaptive approximation using the matching pursuit algorithm, in order to reveal the “hidden” information conveyed in the very low frequency range of the fetal heart rate.
The system involves the combination of the results of the above-mentioned processing techniques, and especially of the matching pursuit algorithm, along with the calculation of the duration of fetal arterial low oxygen saturation, applying a commonly used clustering algorithm.
The proposed system is an innovative and promising approach towards the early diagnosis of fetal hypoxia, given its high specificity and positive predictive value, thus effectively addressing the major drawback of clinical cardiotocography.
|
33 |
Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelleMerhej, Dany 10 February 2012 (has links) (PDF)
Les travaux de cette thèse concernent la conception d'outils algorithmiques permettant l'intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d'améliorer la reconstruction de ces signaux à partir d'un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du " compressed sensing " (CS), l'algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l'algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu'une application pratique dans un arrangement similaire au " single pixel imaging ". Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l'imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d'acquisition des données et de reconstruction des spectres multidimensionnels, par un système d'équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d'autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo.
|
34 |
Target Identification Using Isar Imaging TechniquesAtilgan, Erdinc Levent 01 December 2005 (has links) (PDF)
A proper time-frequency transform technique suppresses the blurring and smearing effect of the time-varying Doppler shift on the target image. The conventional target imaging method uses the Fourier transform for extracting the Doppler shift from the received radar pulse. Since the Doppler shift is timevarying for rotating targets, the constructed images will be degraded.
In this thesis, the Doppler shift information required for the Range-Doppler image of the target is extracted by using high resolution time-frequency transform techniques. The Wigner-Ville Distribution and the Adaptive Gabor Representation with the Coarse-to-Fine and the Matching Pursuit Search Algorithms are examined techniques for the target imaging system.
The modified Matching Pursuit Algorithm, the Matching Pursuit with Reduced Dictionary is proposed which decreases the signal processing time required by the Adaptive Gabor Representation. The Hybrid Matching Pursuit Search Algorithm
is also introduced in this thesis work and the Coarse-to-Fine Algorithm and the Matching Pursuit Algorithm are combined for obtaining better representation quality of a signal in the time-frequency domain.
The stated techniques are applied on to the sample signals and compared with each other. The application of these techniques in the target imaging system is also performed for the simulated aircrafts.
|
35 |
Análise comparativa de algoritmos adaptativos que usam estatísticas de alta ordem para equalização de canais esparsosFrasson, Felipe 03 July 2017 (has links)
Submitted by Patrícia Cerveira (pcerveira1@gmail.com) on 2017-06-06T18:58:56Z
No. of bitstreams: 1
Felipe Frasson- Dissertação.pdf: 984658 bytes, checksum: 05ae4f112679292aefe890dc2f563010 (MD5) / Rejected by Biblioteca da Escola de Engenharia (bee@ndc.uff.br), reason: Patrícia, o formulário de submissão apresenta vários erros, informações duplicadas e fora da formatação (orientador, coorientador, resumo, dentre outros).
Atenciosamente,
Catarina Ribeiro
Bibliotecária BEE - Ramal 5992
on 2017-06-29T16:53:14Z (GMT) / Submitted by Patrícia Cerveira (pcerveira1@gmail.com) on 2017-06-29T19:32:38Z
No. of bitstreams: 1
Felipe Frasson- Dissertação.pdf: 984658 bytes, checksum: 05ae4f112679292aefe890dc2f563010 (MD5) / Approved for entry into archive by Biblioteca da Escola de Engenharia (bee@ndc.uff.br) on 2017-07-03T13:00:12Z (GMT) No. of bitstreams: 1
Felipe Frasson- Dissertação.pdf: 984658 bytes, checksum: 05ae4f112679292aefe890dc2f563010 (MD5) / Made available in DSpace on 2017-07-03T13:00:12Z (GMT). No. of bitstreams: 1
Felipe Frasson- Dissertação.pdf: 984658 bytes, checksum: 05ae4f112679292aefe890dc2f563010 (MD5) / Em um sistema de comunica c~oes, os sinais s~ao transmitidos atrav es de canais de comunica c~ao que, idealmente,
deveriam transportar os dados de maneira a n~ao causar distor c~ao alguma. Por em, em sistemas
reais, existem limita c~oes que interferem neste processo causando degrada c~ao nas informa c~oes transmitidas,
podendo comprometer sua recep c~ao. Tais limita c~oes ocorrem devido a presen ca de ru do aditivo, e
principalmente por interfer^encia intersimb olica, esta caracterizada pela sobreposi c~ao de s mbolos gerados
por uma mesma fonte transmissora. A equaliza c~ao de canal e uma das t ecnicas existentes que reduzem
os efeitos da interfer^encia intersimb olica, dando maior con abilidade e robustez aos sistemas de comunica
c~oes. Dentre as t ecnicas utilizadas para equaliza c~ao de canal, o uso de algoritmo adaptativos vem
sendo amplamente utilizados devido as suas propriedades de se auto-ajustarem as varia c~oes que ocorrem
ao longo do tempo.
Este trabalho tem como objetivo veri car o comportamento de diferentes tipos de algoritmos
adaptativos cegos ou semicegos, assim denominados por n~ao utilizarem sequ^encias de treinamento, aplicados
a equaliza c~ao de canais esparsos. Canais esparsos s~ao encontrados em diversos sistemas de comunica
c~oes como, por exemplo, na comunica c~ao sem o (telefonia m ovel, transmiss~ao de r adio e TV), ou,
ainda, em canais subaqu aticos. Os algoritmos foram escolhidos com base em recentes estudos desta aplica
c~ao, que operam em modo cego ou semicego e utilizam estat sticas de alta ordem, como os algoritmos
Bussgang e Matching Pursuit.
Os algoritmos foram implementados em ambiente de simula c~ao computacional no qual foram
utilizados canais esparsos simples e de resposta ao impulso conhecida, permitindo comparar o comportamento
dos diferentes algoritmos, em termos do sinal recuperado, e da inversa da resposta ao impulso do
canal original. / In communications systems, information signals are transmitted through communications channels that,
ideally, are delivered without distortions. However, on real communications channels there are limitations
that interferes on the process, reducing the probability to recover the original signal at receiver. These
distortions are basically thermal noise and Intersymbol Interference (ISI), caused by superposition on the
received symbols received from the same source. Channel Equalization acts reducing these distortions,
bringing more reliability to communications systems.
The objective of this work is to verify di erent adaptive algorithms behavior, applied to sparse
channel equalization problem. Many communications systems have sparse channels, like broadcast radio,
television, mobile telephony and underwater communications. The selected algorithms used in this work
includes high order statistics algorithms family, like Bussgang and Matching Pursuit. This kind of
algorithms are widely used, with high relevance, for blind channel equalization.
The selected algorithms were submitted to computer simulations using simple sparse channels
and knowledge about their impulse response, in order to analyze their behavior in therms of bit error
rate and the inverse impulse response of the channel.
|
36 |
Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelle / Embedding prior knowledge in the reconstruction of sparse signals : Special case of the multidimensional NMR spectroscopyMerhej, Dany 10 February 2012 (has links)
Les travaux de cette thèse concernent la conception d’outils algorithmiques permettant l’intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d’améliorer la reconstruction de ces signaux à partir d’un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du « compressed sensing » (CS), l’algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l’algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu’une application pratique dans un arrangement similaire au « single pixel imaging ». Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l’imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d’acquisition des données et de reconstruction des spectres multidimensionnels, par un système d’équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d’autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo. / The work of this thesis concerns the proposal of algorithms for the integration of prior knowledge in the reconstruction of sparse signals. The purpose is mainly to improve the reconstruction of these signals from a set of measurements well below what is requested by the famous theorem of Shannon-Nyquist. In the first part we propose, in the context of the new theory of "compressed sensing" (CS), the algorithm NNOMP (Neural Network Orthogonal Matching Pursuit), which is a modified version of the algorithm OMP in which we replaced the correlation step by a properly trained neural network. The goal is to better reconstruct sparse signals with additional structures, i.e. belonging to a particular model of sparse signals. For the experimental validation of NNOMP three simulated models of sparse signals with additional structures were considered and a practical application in an arrangement similar to the “single pixel imaging”. In the second part, we propose a new method for under sampling in multidimensional NMR spectroscopy (including NMR spectroscopic imaging), when the corresponding spectra of lower dimensional acquisitions, e.g. one-dimensional, are intrinsically sparse. In this method, we model the whole process of data acquisition and reconstruction of multidimensional spectra, by a system of linear equations. We then use a priori knowledge about the non-zero locations in multidimensional spectra, to remove the under-determinacy induced by data under sampling. This a priori knowledge is obtained from the lower dimensional acquisition spectra, e.g. one-dimensional. The possibility of under sampling increases proportionally with the sparsity of these one dimensional spectra. The proposed method is evaluated on synthetic, experimental in vitro and in vivo data.
|
37 |
Analysis of Local Field Potential and Gamma Rhythm Using Matching Pursuit AlgorithmChandran, Subash K S January 2016 (has links) (PDF)
Signals recorded from the brain often show rhythmic patterns at different frequencies, which are tightly coupled to the external stimuli as well as the internal state of the subject. These signals also have transient structures related to spiking or sudden onset of a stimulus, which have a duration not exceeding tens of milliseconds. Further, brain signals are highly non-stationary because both behavioral state and external stimuli can change over a short time scale. It is therefore essential to study brain signals using techniques that can represent both rhythmic and transient components of the signal. In Chapter 2, we describe a multi-scale decomposition technique based on an over-complete dictionary called matching pursuit (MP), and show that it is able to capture both sharp stimulus-onset transient and sustained gamma rhythm in local field potential recorded from the primary visual cortex.
Gamma rhythm (30 to 80 Hz), often associated with high-level cortical functions, has been proposed to provide a temporal reference frame (“clock”) for spiking activity, for which it should have least center frequency variation and consistent phase for extended durations. However, recent studies have proposed that gamma occurs in short bursts and it cannot act as a reference. In Chapter 3, we propose another gamma duration estimator based on matching pursuit (MP) algorithm, which is tested with synthetic brain signals and found to be estimating the gamma duration efficiently. Applying this algorithm to real data from awake monkeys, we show that the median gamma duration is more than 330 ms, which could be long enough to support some cortical computations.
|
38 |
Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'imagesZepeda Salvatierra, Joaquin 28 October 2010 (has links) (PDF)
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
|
39 |
Caractérisation des milieux sous marins en utilisant des sources mobiles d'opportunitéJosso, Nicolas 28 September 2010 (has links) (PDF)
Les contraintes de rapidité et de discrétion imposées à un système moderne de caractérisation du milieu océanique ont conduit au développement de la tomographie passive, définie comme un moyen discret et rapide d'estimation des paramètres d'un canal acoustique. Ce concept fait appel aux signaux existants dans le milieu et transmis par des sources d'opportunité. Les signaux d'opportunité sont inconnus à la réception mais contiennent des informations relatives aux paramètres physiques du canal défini entre la source et le récepteur. Le travail de recherche présenté dans ce mémoire est d´edié à la caractérisation des milieux sous-marins en utilisant des signaux bioacoustiques d'opportunité (sifflements à modulation fréquentielle). La méconnaissance du signal transmis, de la position et de la vitesse de la source acoustique d'opportunité rendent la tomographie passive difficile à mettre en oeuvre. La propagation dans l'environnement océanique et le mouvement inconnu de la source transforment conjointement les signaux d'opportunité enregistrés. Dans un premier temps, nous présentons de nouvelles méthodes d'estimation simultanée des paramètres environnementaux et des déformations engendrées par le mouvement dans le plan d'ambiguïté large-bande, dans un contexte d'émissions actives (le signal transmis est supposé connu). Ces méthodes, permettant de compenser les effets du mouvement dans les scénarios d'´emissions actives, sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer. Puis nous nous intéressons à la tomographie océanique acoustique passive sur un unique hydrophone. Dans ce contexte, le signal transmis, la position et la vitesse de la source sont entièrement inconnus. A partir des estimateurs développés pour les scénarios d'émissions actives, nous présentons une nouvelle méthodologie permettant d'estimer les paramètres environnementaux en utilisant des vocalises de mammifères marins enregistrées sur un unique hydrophone. Les informations extraites sur les signaux naturels d'opportunité sont ensuite utilisées pour estimer la position puis le vecteur vitesse de la source d'opportunité. Ces méthodes sont appliquées et validées sur différents jeux de données simulées et réelles enregistrées en mer.
|
40 |
Contributions à l'étude de détection des bandes libres dans le contexte de la radio intelligente.Khalaf, Ziad 08 February 2013 (has links) (PDF)
Les systèmes de communications sans fil ne cessent de se multiplier pour devenir incontournables de nos jours. Cette croissance cause une augmentation de la demande des ressources spectrales, qui sont devenues de plus en plus rares. Afin de résoudre ce problème de pénurie de fréquences, Joseph Mitola III, en 2000, a introduit l'idée de l'allocation dynamique du spectre. Il définit ainsi le terme " Cognitive Radio " (Radio Intelligente), qui est largement pressenti pour être le prochain Big Bang dans les futures communications sans fil [1]. Dans le cadre de ce travail on s'intéresse à la problématique du spectrum sensing qui est la détection de présence des Utilisateurs Primaires dans un spectre sous licence, dans le contexte de la radio intelligente. L'objectif de ce travail est de proposer des méthodes de détection efficaces à faible complexité et/ou à faible temps d'observation et ceci en utilisant le minimum d'information a priori sur le signal à détecter. Dans la première partie on traite le problème de détection d'un signal aléatoire dans le bruit. Deux grandes méthodes de détection sont utilisées : la détection d'énergie ou radiomètre et la détection cyclostationnaire. Dans notre contexte, ces méthodes sont plus complémentaires que concurrentes. Nous proposons une architecture hybride de détection des bandes libres, qui combine la simplicité du radiomètre et la robustesse des détecteurs cyclostationnaires. Deux méthodes de détection sont proposées qui se basent sur cette même architecture. Grâce au caractère adaptatif de l'architecture, la détection évolue au cours du temps pour tendre vers la complexité du détecteur d'énergie avec des performances proches du détecteur cyclostationnaire ou du radiomètre selon la méthode utilisée et l'environnement de travail. Dans un second temps on exploite la propriété parcimonieuse de la Fonction d'Autocorrelation Cyclique (FAC) pour proposer un nouvel estimateur aveugle qui se base sur le compressed sensing afin d'estimer le Vecteur d'Autocorrelation Cyclique (VAC), qui est un vecteur particulier de la Fonction d'Autocorrelation Cyclique pour un délai fixe. On montre par simulation que ce nouvel estimateur donne de meilleures performances que celles obtenues avec l'estimateur classique, qui est non aveugle et ceci dans les mêmes conditions et en utilisant le même nombre d'échantillons. On utilise l'estimateur proposé, pour proposer deux détecteurs aveugles utilisant moins d'échantillons que nécessite le détecteur temporel de second ordre de [2] qui se base sur l'estimateur classique de la FAC. Le premier détecteur exploite uniquement la propriété de parcimonie du VAC tandis que le second détecteur exploite en plus de la parcimonie la propriété de symétrie du VAC, lui permettant ainsi d'obtenir de meilleures performances. Ces deux détecteurs outre qu'ils sont aveugles sont plus performants que le détecteur non aveugle de [2] dans le cas d'un faible nombre d'échantillons.
|
Page generated in 0.064 seconds