• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • 1
  • Tagged with
  • 10
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Methodes pour l'Estimation de canal, Egalisation et Codage pour le Traitement Iteratif en présence d'interférences

Ghaith, Alaa 08 June 2006 (has links) (PDF)
Ce rapport de thèse présente des nouvelles méthodes pour l'estimation de canal, l'égalisation et le codage pour des canaux avec interférence entre symboles. On commence par une nouvelle procédure itérative d'estimation de canal et de détection, appelée la Séparation de l'Observation, dans un schéma de turbo égalisation pour des systèmes utilisant des modulations à grande taille. On étend cette technique à la détection itérative des étiquetages. On propose un étiquetage binaire optimisé de la constellation 16-QAM dans l'ordre d'augmenter le gain de codage. Ensuite, on présente un algorithme de décodage pour les codes non binaires qui est accéléré par l'utilisation de la transformée d'Hadamard rapide, et à complexité réduite grâce au code dual. On propose des nouveaux codes LDPC adaptatives qui peuvent être facilement appliqué dans un système OFDM et décodé par la règle conçue auparavant. Finalement, on améliore les performances de la turbo égalisation, en combinant tous les techniques définies auparavant: code LDPC non binaire, égaliseur à suppression d'interférence, séparation d'observation et décodage LDPC non binaire.
2

Approche multicouches pour la reconfigurabilité de systèmes de communications de 3ème génération

Krikidis, Ioannis 11 1900 (has links) (PDF)
Un circuit de télécommunication est reconfigurable s'il est capable de changer de fonction en temps réel, comme par exemple le passage d'un standard de communication à un autre, ou l'optimisation des performances suite à une modification contextuelle. La reconfigurabilité nécessite de mener conjointement une étude au niveau algorithmique et au niveau architectural de façon à respecter les contraintes de flexibilité, rapidité et consommation. Dans cette thèse la reconfigurabilité a été étudiée dans le cadre du standard WCDMA de façon à optimiser conjointement la performance et la consommation de puissance lors d'un changement du canal de propagation ou des paramètres de communication. Une des contributions de cette thèse est une nouvelle méthode de reconfigurabilité appelée "Approche itérative". Cette approche essaye de tirer parti des algorithmes ayant des opérateurs similaires et se prêtant à la sérialisation des calculs. Les systèmes de communications et de traitement du signal utilisent de nombreux algorithmes itératifs propices à l'utilisation de cette méthode. L'approche itérative permet de disposer de grain de calcul fin qui joue en faveur de la diminution de la complexité et de la facilité à mettre en commun des ressources entre différents algorithmes. Un autre atout est d'autoriser l'ajustement de la qualité de l'algorithme en jouant sur le nombre d'itérations. La consommation dynamique d'une structure sérielle de ce type est généralement supérieure à la structure factorisation. En revanche la consommation statique qui devient non négligeable dans les technologies CMOS <0.1m est nettement inférieure du fait de la taille réduite du grain de calcul. Pour certaines fonctions, tous les opérateurs peuvent ne pas être utilisés, mais la faible granularité des opérateurs minimise l'utilisation sous optimale du matériel. Le nombre d'itérations peut aussi être limité par le temps imparti pour le traitement. Mais en considérant qu'un itération ne peut durer qu'un cycle d'horloge avec une architecture pipeline, le rapport entre la fréquence d'horloge (>>200Mmots/s) et les débits binaires (quelque Mbits/s à quelques 10Mb/s) offre un nombre d'itération suffisant pour de nombreuses fonctions. Les exemples décrits dans cette thèse illustrent l'intérêt de cette méthode. Plus précisément, nous nous sommes intéressés aux algorithmes de réception d'un système DS-CDMA et à leur implémentation matérielle. La similarité de calcul entre trois fonctions de base qui sont: la démodulation en râteau (RAKE), l'estimation du canal, et l'annulation d'interférence (IC); ainsi que leur nature itérative, a débouché sur quelques algorithmes de réception chargés d'adapter le comportement aux conditions environnementales. Ces algorithmes optimisent la performance du système et minimisent la surface de matériel. Cette approche est donc particulièrement efficace pour l'implémentation de terminaux qui ont des contraintes de puissance et de surface très critiques.
3

Formes d'ondes avancées et traitements itératifs pour les canaux non linéaires satellites / Advanced waveforms and iterative processing for non linear satellite channels

Benammar, Bouchra 05 December 2014 (has links)
L'augmentation de l'efficacité spectrale des transmissions mono-porteuses sur un lien de diffusion par satellite est devenu un défi d'envergure afin de pallier la demande croissante en débits de transmission. Si des techniques émergentes de transmissions encouragent l'utilisation de modulations à ordre élevé telles que les modulations de phase et d'amplitude (APSK), certaines dégradations sont encourues lors du traitement à bord du satellite. En effet, en raison de l'utilisation d'amplificateurs de puissance ainsi que de filtres à mémoires, les modulations d'ordre élevé subissent des distorsions non-linéaires dues à la fluctuation de leur enveloppe, ce qui nécessite des traitements au sein de l'émetteur ou bien au sein du récepteur. Dans cette thèse, nous nous intéressons au traitement de l'interférence non-linéaire au sein du récepteur, avec une attention particulière aux égaliseurs itératifs qui améliorent les performances du système au prix d'une complexité élevée. A partir du modèle temporel des interférences non-linéaires induites par l'amplificateur de puissance, des algorithmes de réception optimaux et sous optimaux sont dérivés, et leurs performances comparées. Des égaliseurs à complexité réduite sont aussi étudiés dans le but d'atteindre un compromis performances-complexité satisfaisant. Ensuite, un modèle des non-linéarités est dérivé dans le domaine fréquentiel, et les égaliseurs correspondants sont présentés. Dans un second temps, nous analysons et dérivons des récepteurs itératifs pour l'interférence entre symboles non linéaire. L'objectif est d'optimiser les polynômes de distributions d'un code externe basé sur les codes de contrôle de parité à faible densité (LDPC) afin de coller au mieux à la sortie de l'égaliseur. Le récepteur ainsi optimisé atteint de meilleures performances comparé à un récepteur non optimisé pour le canal non-linéaire. Finalement, nous nous intéressons à une classe spécifique de techniques de transmissions mono-porteuse basée sur le multiplexage par division de fréquence (SC-OFDM) pour les liens satellites. L'avantage de ces formes d'ondes réside dans l'efficacité de leur égaliseur dans le domaine fréquentiel. Des formules analytiques de la densité spectrale de puissance et du rapport signal sur bruit et interférence sont dérivées et utilisées afin de prédire les performances du système. / Increasing both the data rate and power efficiency of single carrier transmissions over broadcast satellite links has become a challenging issue to comply with the urging demand of higher transmission rates. If emerging transmission techniques encourage the use of high order modulations such as Amplitude and Phase Shift Keying (APSK) and Quadrature Amplitude Modulation (QAM), some channel impairments arise due to onboard satellite processing. Indeed, due to satellite transponder Power Amplifiers (PA) as well as transmission filters, high order modulations incur non linear distortions due to their high envelope fluctuations which require specific processing either at the transmitter or at the receiver. In this thesis, we investigate on non linear interference mitigation at the receiver with a special focus on iterative equalizers which dramatically enhance the performance at the cost of additional complexity. Based on the time domain model of the non linear interference induced by the PA, optimal and sub-optimal receiving algorithms are proposed and their performance compared. Low complexity implementations are also investigated for the sake of a better complexity-performance trade-off. Then, a non linear frequency domain model is derived and the corresponding frequency equalizers are investigated. In the second part, we analyse and design an iterative receiver for the non linear Inter Symbol Interference (ISI) channel. The objective is to optimize an outer Low Density Parity Check (LDPC) code distribution polynomials so as to best fit the inner equalizer Extrinsic information. The optimized receiver is shown to achieve better performance compared to a code only optimized for linear ISI channel. Finally, we investigate on a specific class of single carrier transmissions relying on Single Carrier Orthogonal Frequency Division Multiplexing (SCO-FDM) for satellite downlink. The advantage of such waveforms lies in their practical receiver implementation in the frequency domain. General analytical formulas of the power spectral density and signal to noise and interference ratio are derived and used to predict the bit error rate for frequency selective multiplexers.
4

Contrast enhancement in digital imaging using histogram equalization / Amélioration du contraste des images numériques par égalisation d'histogrammes

Gomes, David Menotti 18 June 2008 (has links)
Aujourd’hui, des appareils capables de capter et de traiter les images peuvent être trouvés dans les systèmes complexes de surveillance ou de simples téléphones mobiles. Dans certaines applications, le temps nécessaire au traitement des images n’est pas aussi important que la qualité du traitement (par exemple, l’imagerie médicale). Par contre, dans d’autres cas, la qualité peut être sacrifiée au profit du facteur temps. Cette thèse se concentre sur ce dernier cas, et propose deux types de méthodes rapides pour l’amélioration du contraste d’image. Les méthodes proposées sont fondées sur l’égalisation d’histogramme (EH), et certaines s’adressent à des images en niveaux de gris, tandis que d’autres s’adressent à des images en couleur. En ce qui concerne les méthodes EH pour des images en niveaux de gris, les méthodes actuelles tendent à changer la luminosité moyenne de l’image de départ pour le niveau moyen de l´interval de niveaux de gris. Ce n’est pas souhaitable dans le cas de l’amélioration du contraste d’image pour les produits de l’électronique grand-public, où la préservation de la luminosité de l’image de départ est nécessaire pour éviter la production de distortions dans l’image de sortie. Pour éviter cet inconvénient, des méthodes de Biégalisation d’histogrammes pour préserver la luminosité et l’amélioration du contraste ont été proposées. Bien que ces méthodes préservent la luminosité de l’image de départ tout en améliorant fortement le contraste, elles peuvent produire des images qui ne donnent pas une impression visuelle aussi naturelle que les images de départ. Afin de corriger ce problème, nous proposons une technique appelée multi-EH, qui consiste à décomposer l’image en plusieurs sous-images, et à appliquer le procédé classique de EH à chacune d’entre elles. Bien que produisant une amélioration du contraste moins marquée, cette méthode produit une image de sortie d’une apparence plus naturelle. Nous proposons deux fonctions de décalage par découpage d’histogramme, permettant ainisi de concevoir deux nouvelle méthodes de multi-EH. Une fonction de coût est également utilisé pour déterminer automatiquement en combien de sous-images l’histogramme de l’image d’entrée sera décomposée. Les expériences montrent que nos méthodes sont meilleures pour la préservation de la luminosité et produisent des images plus naturelles que d´autres méthodes de EH. Pour améliorer le contraste dans les images en couleur, nous introduisons une méthode 5 Résumé 6 générique et rapide, qui préserve la teinte. L’égalisation d’histogramme est fondée sur l’espace couleur RGB, et nous proposons deux instantiations de la méthode générique. La première instantiation utilise des histogrammes 1D R-red, G-green, et B-bleu afin d’estimer l’histogramme 3D RGB qui doit être égalisé, alors que le deuxième instantiation utilise des histogrammes 2D RG, RB, et GB. L’égalisation d’histogramme est effectué en utilisant des transformations de décalage qui préservent la teinte, en évitant l’apparition de couleurs irréalistes. Nos méthodes ont des complexités de temps et d’espace linéaire, par rapport à la taille de l’image, et n’ont pas besoin de faire la conversion d’un espace couleur à l’autre afin de réaliser l’amélioration du contraste de l’image. Des évaluations objectives comparant nos méthodes et d’autres ont été effectuées au moyen d’une mesure de contraste et de couleur afin de mesurer la qualité de l’image, où la qualité est établie comme une fonction pondérée d’un indice de “naturalité” et d’un indice de couleur. Nous analysons 300 images extraites d’une base de données de l’Université de Berkeley. Les expériences ont montré que la valeur de contraste de l’image produite par nos méthodes est en moyenne de 50% supérieure à la valeur de contraste de l’image original, tout en conservant une qualité des images produites proche de celle des images originales / Nowadays devices are able to capture and process images from complex surveillance monitoring systems or from simple mobile phones. In certain applications, the time necessary to process the image is not as important as the quality of the processed images (e.g., medical imaging), but in other cases the quality can be sacrificed in favour of time. This thesis focuses on the latter case, and proposes two methodologies for fast image contrast enhancement methods. The proposed methods are based on histogram equalization (HE), and some for handling gray-level images and others for handling color images As far as HE methods for gray-level images are concerned, current methods tend to change the mean brightness of the image to the middle level of the gray-level range. This is not desirable in the case of image contrast enhancement for consumer electronics products, where preserving the input brightness of the image is required to avoid the generation of non-existing artifacts in the output image. To overcome this drawback, Bi-histogram equalization methods for both preserving the brightness and contrast enhancement have been proposed. Although these methods preserve the input brightness on the output image with a significant contrast enhancement, they may produce images which do not look as natural as the ones which have been input. In order to overcome this drawback, we propose a technique called Multi-HE, which consists of decomposing the input image into several sub-images, and then applying the classical HE process to each one of them. This methodology performs a less intensive image contrast enhancement, in a way that the output image presented looks more natural. We propose two discrepancy functions for image decomposition which lead to two new Multi-HE methods. A cost function is also used for automatically deciding in how many sub-images the input image will be decomposed on. Experimental results show that our methods are better in preserving the brightness and producing more natural looking images than the other HE methods. In order to deal with contrast enhancement in color images, we introduce a generic fast hue-preserving histogram equalization method based on the RGB color space, and two instances of the proposed generic method. The first instance uses R-red, G-green, and Bblue 1D histograms to estimate a RGB 3D histogram to be equalized, whereas the second instance uses RG, RB, and GB 2D histograms. Histogram equalization is performed using 7 Abstract 8 shift hue-preserving transformations, avoiding the appearance of unrealistic colors. Our methods have linear time and space complexities with respect to the image dimension, and do not require conversions between color spaces in order to perform image contrast enhancement. Objective assessments comparing our methods and others are performed using a contrast measure and color image quality measures, where the quality is established as a weighed function of the naturalness and colorfulness indexes. This is the first work to evaluate histogram equalization methods with a well-known database of 300 images (one dataset from the University of Berkeley) by using measures such as naturalness and colorfulness. Experimental results show that the value of the image contrast produced by our methods is in average 50% greater than the original image value, and still keeping the quality of the output images close to the original / Dispositivos para aquisição e processamento de imagens podem ser encontrados em sistemas complexos de monitoração de segurança ou simples aparelhos celulares. Em certas aplicações, o tempo necessário para processar uma imagem não é tão importante quanto a qualidade das imagens processadas (por exemplo, em imagens médicas), mas em alguns casos a qualidade da imagem pode ser sacrificada em favor do tempo. Essa tese se foca nesse último caso, e propõe duas metodologias eficientes para o realce de contraste de imagens. Os métodos propostos são baseados em equalização de histograma (EH), e focam em imagens em tons de cinza e em imagens coloridas. Os métodos baseados em EH atualmente utilizados para processar imagens em tons de cinza tendem a mudar o brilho médio da imagem para o tom médio do intervalo de tons de cinza. Essa mudança não é desejavél em aplicações que visam melhorar o contraste em produtos eletrônicos utilizados pelo consumidor, onde preservar o brilho da imagem original é necessário para evitar o aparecimento de artefatos não exitentes na imagem de saída. Para corrigir esse problema, métodos de bi-equalização de histogramas para preservação do brilho e contraste de imagens foram propostos. Embora esses métodos preservem o brilho da imagem original na imagem processada com um realce significante do contraste, eles podem produzir imagens que não parecem naturais. Esse novo problema foi resolvido por uma nova técnica chamada de Multi-Equalização de histogramas, que decompõe a imagem original em várias sub-imagens, e aplica o método de EH clássico em cada uma delas. Essa metodologia realiza um realce de contraste menos intenso, de forma que a imagem processada parece mais “natural”. Essa tese propõe duas novas funções de discrepância para decomposição de imagens, originando dois novos métodos de Multi-EH. Além disso, uma função de custo é utilizada para determinar em quantas sub-imagens a imagem original será dividida. Através da comparação objetiva e quantitative usando uma medida de constrate, os experimentos mostraram que os métodos propostos são melhores que outros EH estudados, uma vez que eles preservam o brilho e produzem imagens com uma aparência mais natural. Em relação aos métodos para realce de contraste em imagens coloridas, essa tese propõe um método genérico e eficiente de EH baseado no espaço de cores RGB que preserva o tom 9 Resumo 10 (a matiz), e implementa duas instâncias desse método genérico. A primeira instância utiliza os histogramas 1D R-red, G-green e B-blue para estimar um histograma 3D RGB, que é então equalizado. A segunda instância, por sua vez, utiliza os histogramas 2D RG, RB, e GB. A EH é executada utilizando transformadas de deslocamento que preservam a tonalidade da cor, evitando o aparecimento de cores não reais. Os métodos propostos tem complexidade linear no espaço e no tempo em relação ao tamanho da imagem, e não usam nenhuma conversão de um espaço de cores para outro. As imagens produzidas foram avaliadas objetivamente, comparando os métodos propostos com outros estudados. A avaliação objetiva foi feita utilizando medidas de contraste e de qualidade da cor da imagem, onde a qualidade foi definida como uma função ponderada dos índices de naturalidade e cromicidade. Um conjunto de 300 imagens extraídas da base de dados da Universidade de Berkeley foram analisadas. Os experimentos mostraram que o valor do contraste das imagens produzidas pelos métodos propostos é, em médias, 50% maior que o valor do contraste na imagem original, e ao mesmo tempo a qualidade das imagens produzidas é próxima a qualidade da imagem original / Dispositivi per l’acquisizione e lo svolgimento di immagini si possono trovare nei complessi sistemi di monitoramento di sicurezza o nei semplici cellulari. In alcune applicazioni il tempo necessario per svolgere un’immagine non è cosi importante come la qualità delle immagini svolte (es. nelle immagini mediche), ma in alcuni casi la qualità dell’immagine potrà venire daneggiata a favore del tempo. Questa tesi è basata su quest’ultimo caso e propone due metodi efficienti per evidenziare il contrasto di colore delle immagini. I metodi proposti vengono basate sull’equalizazzione d’istogramma (EI), mirati su delle immagini grigie e sulle immagini colorate. I metodi basati sull’EI attualmente utilizzati per svolgere delle immagini grigie tendono a cambiare il brillo medio dell’immagine per il tono medio dell’intervallo grigio. Questo cambiamento non è desiderato nelle applicazioni mirate al miglioramento del contrasto sui prodotti elettronici utilizzati dal consumatore, dove preservare il brillo dell’immagine originale è necessario per evitare la comparsa di artefatti inesistenti nell’immagine d’uscita. Sono stati proposti dei metodi di biequalizazzione di istogrammi per corregere questo problema della preservazione del brillo e del contrasto di colore delle immagini. Nonostante questi metodi preservino il brillo dell’immagine originale con significante rilievo del contrasto nell’immagine svolta, questi possono produrre delle immagini che non sembrino naturali. Questo nuovo problema è stato risolto con una nuova tecnica detta Multiequalizazzione di istogrammi, che decompone l’immagine originale in varie sottoimmagini, applicando su ognuna di queste il metodo EI classico. Questa metodologia realizza un contrasto di rilievo meno intenso in modo che l’immagine svolta sembri più “naturale”. Questa tesi propone due nuove funzioni di discrepanza per la decomposizione delle immagini, originandone due nuovi metodi Multi-EI. Inoltre una funzione di costo viene utilizzata per determinare in quante sottoimmagini l’immagine originale verrà divisa. Attraverso paragone obiettivo e quantitativo, usando una misura di contrasto, gli esperimenti hanno convalidato che i metodi proposti sono migliori di quegli EI studiati perché quelli preservano il brillo e producono immagini con un’apparenza più naturale. Con riferimento ai metodi utilizzati per rilevare il contrasto nelle immagini colorate questa tese propone un metodo generico ed efficiente di EI, in base negli spazi di colori 11 Risumo 12 RGB, che preserva il tono (la sfumatura) e implementa due istanze di questo metodo generico. La prima istanza utilizza gli istogrammi 1D R-Red, G-green e B-blue per stimare un istogramma 3D RGB, che viene di seguito equalizzato. La seconda istanza invece utilizza gli istogrammi 2D RG, RB e GB. La EI viene eseguita utilizzando trasformate di trasloco che preservano il tono del colore, evitando così la comparsa di colori non reali. I metodi proposti hanno complessità lineare nello spazio e nel tempo rispetto alla grandezza dell’immagine e non usano nessuna conversione da un spazio di colore all’altro. Le immagini prodotte sono state valutate in modo obiettivo, paragonando i metodi proposti con gli altri studiati. La valutazione obiettiva è stata fatta utilizzando delle misure di contrasto e qualità del colore dell’immagine, dove la qualità è stata definita come una funzione ponderata degli indici di naturalità e colorito. Si analisarano un insieme di 300 immagini tratte dalla base dei dati dell’Università di Berkeley. Gli sperimenti mostrarono che il valore del contrasto delle immagini prodotte daí metodi proposti è mediamente 50% maggiore del valore del contrasto nell’immagine originale e una volta ancora la qualità delle immagini prodotte è vicina alla qualità dell’immagine originale
5

Amélioration des performances du traitement des interférences dans le domaine fréquentiel pour les communications acoustiques sous marines

YOUCEF, Abdelhakim 12 December 2013 (has links) (PDF)
Les communications acoustiques sous-marines permettent la transmission sans fils de l'information entre la surface et le fond via l'onde acoustique. Le lien acoustique sans fils réduit l'infrastructure matérielle nécessaire par rapport aux communications sous-marines câblées, permettant ainsi un déploiement à coût limité. Néanmoins, le canal acoustique sous-marin impose de sévères limitations de par ses caractéristiques de propagation qui diffèrent largement de celles du canal hertzien. La propagation multitrajets provoquée par les réflexions multiples sur le fond et la surface, engendre de l'interférence entre symboles qui doit être compensée à la réception. De plus, le mouvement des plateformes d'émission et de réception engendre un effet Doppler qui agit sur le signal comme un phénomène de compression/dilatation temporel de la durée symbole associé à un décalage fréquentiel du spectre. L'objectif de cette thèse est de proposer des techniques d'émission/réception de faible complexité calculatoire permettant de supprimer les interférences et de réduire le taux d'erreurs binaires sous la contrainte d'une efficacité énergétique de la transmission acoustique sous-marine. La réduction en complexité est assurée par le traitement d'interférences dans le domaine fréquentiel lequel permet de minimiser la consommation énergétique du système de transmission. Dans un premier temps, nous proposons des techniques d'égalisation fréquentielle adaptative en mode piloté par décision afin de compenser et de suivre la variation temporelle du canal acoustique sous-marin. Dans un second temps, nous proposons un schéma de transmission SC-FDMA mono-utilisateur en mode distribué uniforme en insérant des intervalles de garde fréquentiels afin d'améliorer la robustesse du lien de transmission contre l'effet Doppler du canal acoustique sous-marin. Enfin, nous proposons un turbo-égaliseur fréquentiel adaptatif basé sur un traitement itératif en réception et permettant de réduire le taux d'erreurs binaires au fil des itérations. Notons qu'un traitement multi-voies est considéré à la réception afin d'améliorer le rapport signal sur bruit et que l'égalisation est optimisée conjointement avec la synchronisation de phase pour compenser d'éventuels décalages fréquentiels résiduels. Les solutions proposées dans cette thèse sont validées expérimentalement sur des signaux réels issus d'enregistrements de transmission en milieu marin.
6

Etude de liaisons SISO, SIMO, MISO et MIMO à base de formes d'ondes FBMC-OQAM et de récepteurs Widely Linear / Study of Widely Linear Receivers for FBMC-OQAM modulations

Chauvat, Rémi 31 March 2017 (has links)
Au cours des vingt dernières années, le débit croissant des communications radiofréquences a imposé la mise en œuvre de techniques d'égalisation de plus en plus complexes. Pour résoudre ce problème, les modulations multi-porteuses ont été massivement employées dans les standards de communications à très haut débit. Un exemple caractéristique de la démocratisation de ces formes d'ondes est l'utilisation de l'OFDM (Orthogonal Frequency Division Multiplexing) sur le lien descendant des réseaux 4G. Toutefois, pour les futurs réseaux 5G, l'émergence prévue des communications M2M (Machine-to-Machine) impose aux formes d'ondes une grande tolérance aux asynchronismes au sein de ces réseaux et ne permet pas l'emploi de l'OFDM qui nécessite une synchronisation stricte en temps et en fréquence. Egalement, l'utilisation efficace du spectre par les techniques de la radio cognitive est incompatible avec l'OFDM en raison de la mauvaise localisation en fréquence de cette forme d'onde.Dans ce contexte, la forme d'onde FBMC-OQAM (Filter Bank Multi-Carrier - Offset Quadrature Amplitude Modulation) est apparue comme une solution potentielle à ces problèmes. Toutefois, l'égalisation des signaux FBMC-OQAM en canal sélectif en fréquence et/ou canal MIMO (Multiple Input Multiple Output) est rendue difficile par la subsistance d'interférences entre les sous-porteuses du schéma FBMC-OQAM. Cette thèse étudie donc l'égalisation de ces liaisons. L'étude de récepteurs WL (Widely Linear) qui permettent la suppression d'interférences, sans diversité d'antenne en réception, au sein des réseaux utilisant des signaux noncirculaires au second ordre (e.g. signaux ASK, GMSK, OQAM) est privilégiée. Cette technique nommée SAIC (Single Antenna Interference Cancellation) et utilisée dans les réseaux GSM pour la suppression d'interférences co-canal est envisagée pour une extension à la suppression des interférences entre porteuses des formes d'ondes FBMC-OQAM. La technologie SAIC, qui a été étendue pour plusieurs antennes en réception (MAIC - Multiple Antenna Interference Cancellation) a l'avantage de sa faible complexité et ne génère pas de propagation d'erreur à faible SNR contrairement aux solutions de suppression successive d'interférences. Une approche progressive est adoptée, depuis l'élaboration du SAIC pour la suppression d'interférences co-canal où nous démontrons l'importance de considérer le caractère cyclostationnaire des signaux OQAM. Basée sur cette constatation, une nouvelle structure de réception utilisant un filtre WL-FRESH (FREquency-SHift) est proposée et ses meilleures performances comparé au récepteur WL standard sont présentées analytiquement et par simulations numériques. L'extension du SAIC pour la suppression d'une interférence décalée en fréquence est ensuite menée et différentes structures de réception sont proposées et analysées en détail. L'aptitude des traitements SAIC utilisant des filtres WL-FRESH à supprimer 2 interférences décalées en fréquence est présentée. Dans le contexte des signaux FBMC-OQAM qui utilisent généralement le filtre de mise en forme PHYDYAS, chaque sous-porteuse est polluée par ses deux sous-porteuses adjacentes. Cependant, pour évaluer les traitements SAIC sans devoir prendre en compte la contribution des sous-porteuses voisines à ces sous-porteuses adjacentes, un filtre doit précéder le traitement de réception. Pour cette raison, l'analyse de l'impact d'un filtre de réception sur les performances des traitements SAIC proposés est effectuée et les conditions sur la bande passante du filtre nécessaires pour justifier l'intérêt d'un traitement SAIC par filtrage WL sont présentées. Dans un dernier temps, une approche alternative d'égalisation des signaux FBMC-OQAM est présentée. Elle consiste à démoduler conjointement les sous-porteuses interférentes après filtrage. Cette technique est abordée dans le contexte de liaisons MIMO Alamouti FBMC-OQAM. / During the last two decades, the increase of wireless communications throughput has necessitated more and more complex equalization techniques. To solve this issue, multicarrier modulations have been massively adopted in high data rates wireless communications standards. A typical example of the wide use of these waveforms is the adoption of OFDM (Orthogonal Frequency Division Multiplexing) for the downlink of 4G mobile networks. However, for next-generation 5G networks, the expected increase of M2M (Machine-to-Machine) communications forbids the use of OFDM because of the tight time and frequency synchronization constraints imposed by this waveform. Additionally, efficient spectrum occupation through cognitive radio strategies are incompatible with the poor spectral localization of OFDM. In this context, FBMC-OQAM (Filter Bank Multi-Carrier - Offset Quadrature Amplitude Modulation) waveforms appeared as a potential solution to these issues. However, equalization of FBMC-OQAM in frequency selective channels and/or MIMO (Multiple Input Multiple Output) channels is not straightforward because of residual intrinsic interferences between FBMC-OQAM subcarriers. Thus, this thesis considers equalization techniques for these links. In particular, the study of WL (Widely Linear) receivers allowing the mitigation of interferences, with only a single antenna, among networks using second-order noncircular waveforms (e.g. ASK, GMSK, OQAM signals) is privileged. This work studied this technique, named SAIC (Single Antenna Interference Cancellation) and applied for the suppression of co-channel interferences in GSM networks in order to adapt it for the cancellation of FBMC-OQAM intercarrier interferences. SAIC, which was further extended to multiple receive antennas (MAIC - Multiple Antenna Interference Cancellation) benefits from its low complexity and does not generate error propagation at low SNR contrary to successive interference cancellation based solutions. A progressive approach is adopted, from SAIC/MAIC for the suppression of co-channel interferences where we emphasize the importance of considering the cyclostationary nature of OQAM communication signals. Based on this, the proposal of a new WL-FRESH (FREquency-SHift) filter based receiver for OQAM-like signals is made and its performance is characterized analytically and by numerical simulations asserting its superior performance with respect to the standard WL receiver. The extension of SAIC/MAIC for the mitigation of a frequency-shifted interference is then considered and reception structures are proposed and analyzed in detail. The ability of WL-FRESH filter based SAIC receivers to perform the suppression of multiple frequency-shifted interferences is assessed. In the context of FBMC-OQAM signals which frequently utilize the PHYDYAS pulse-shaping prototype filter, each subcarrier is polluted only by its adjacent subcarriers. However, to evaluate SAIC processing without having to consider neighboring subcarriers of the adjacent ones, a filtering operation prior to the SAIC processing is needed. For this reason, the impact of a reception filter on the performance gain provided by the SAIC processing was conducted and conditions on the filter bandwidth have been established which governs the potential performance gain of a WL filter based processing for SAIC of frequency-shifted interferences.In a last step, an alternative equalization approach for FBMC-OQAM is investigated. This proposed technique consists in the per-subcarrier joint demodulation of the subcarrier of interest and its interfering adjacent ones after a filtering step. This proposal is considered in the context of MIMO Alamouti FBMC-OQAM links.
7

Sur l'estimation non paramétrique de la fonction d'égalisation équipercentile. Application à la qualité de vie.

El Fassi, Kaouthar 03 June 2009 (has links) (PDF)
Soient $X$ et $Y$ deux variables aléatoires de fonctions de répartition $F$ et $G$ respectivement. Deux réalisations données $x$ et $y$ sont dites équivalentes si et seulement si $F(x)=G(y)$. Cette équation est connue sous le nom ``équation équipercentile''. Sa résolution, pour un $x$ fixé, permet d'exprimer l'équivalent équipercentile de $x$ comme suit: $y(x)=G^{-1}(F(x))$, où $G^{-1}$ désigne la fonction inverse de $G$. Dans ce travail, nous proposons cinq scénarios d'estimation de la fonction d'égalisation équipercentile $G^{-1}(F(x))$. Les estimateurs proposés reposent sur l'approche de l'ajustement polynômial local. Les résultats obtenus sont les suivants. D'abord, nous montrons la convergence uniforme presque sûre des estimateurs. Ensuite, nous établissons l'approximation par un pont brownien approprié et évaluons la performance des estimateurs en utilisant l'erreur en moyenne quadratique comme mesure de perte. Finalement, nous proposons quelques simulations sous R pour illustrer nos résultats et comparons les estimateurs en les appliquant sur un jeu de données réelles provenant d'une étude longitudinale multi-centrique de la cohorte ANRS C08.
8

Techniques de traitement numérique du signal pour les systèmes de transmission optique ultra haut débit à détection cohérente

ZIA-CHAHABI, Omid 17 January 2013 (has links) (PDF)
La détection optique cohérente et le traitement numérique du signal sont au coeur de la nouvelle génération de systèmes de transmission sur fibre. Ces systèmes utilisent des formats de modulation à grande efficacité spectrale et sont très robustes à la propagation sur le canal de transmission optique. Ils offrent ainsi aux opérateurs de télécommunications les moyens de décupler la capacité de leurs réseaux de transport tout en conservant leurs infrastructures fibre existantes. Cette thèse développe différentes problématiques relatives à la conception de fonctions numériques pour les récepteurs optiques à détection cohérente fonctionnant aux débits de 100 Gbit/s et au-delà. Elle aborde les aspects de complexité calculatoire de l'égalisation numérique du canal optique, puis évalue l'apport des techniques dans le domaine fréquentiel en vue de rendre les traitements compatibles avec les contraintes matérielles de la mise en oeuvre à très haut débit. Le second point étudié concerne les difficultés potentielles de l'utilisation du multiplexage en polarisation. La dernière partie de la thèse traite de l'étude conjointe des fonctions d'égalisation et de synchronisation porteuse et phase pour l'application aux formats de modulation à très grande efficacité spectrale.
9

Gestion des interférences dans les systèmes MIMO massifs / Interference management in massive MIMO systems

Sissokho, Bamba 18 January 2019 (has links)
Cette thèse a permis de travailler sur l'efficacité d'un canal des systèmes massifs MIMO pour lesquels il faille déterminer le débit à l'Uplink des terminaux présents dans leurs cellules respectives. Comme hypothèse, la bande de fréquence en mode TDD est réutilisée dans chaque cellule. Tous les symboles sont propagés de manière asynchrone par les terminaux présents dans les cellules, n'empêchant pas de fait des interactions intra et inter symboles au niveau des stations de base. Ces signaux rencontrent beaucoup d'obstacles sur leur trajet qui entraînent des retards, des pertes de signaux (destructifs), des régénérations de signaux (constructifs) avec divers types de modulation (amplitude, fréquentielle, phase), etc. L’affaiblissement du trajet dans le canal est mis en exergue avec les différentes valeurs prises par le coefficient d'atténuation choisi lors des simulations. Face à cette situation, il a fallu rechercher le meilleur et robuste estimateur de canal à un temps de cohérence donné. La méthode MMSE (Minimum Mean Square Error) est retenue, comparée à d'autres. Pour la performance des systèmes massifs MIMO, nous nous sommes appesantis sur les méthodes de diversité des antennes (diversité d'ordre N), les méthodes de coding, les méthodes d'accès OFDMA et les méthodes d'égalisation pour montrer qu'effectivement le fait d'utiliser de nombreuses antennes au niveau des stations de base améliore et contribue aux gains recherchés en débits. Avec les systèmes massifs MIMO, nous avons montré que l'apport antennaire est bien reconnu dans la gestion des interférences. Un algorithme de calcul de débit à l'Uplink a été réalisé avec trois récepteurs conventionnels que sont le MRC (Maximum Ratio Combiner), le ZF (Zero-Forcing) et le MMSE (Minimum Mean Square Error). Les simulations ont permis de comparer les différentes approches. En faisant varier la puissance de contamination des symboles pilotes, nous observons la convergence des courbes ZF et MMSE. Si le nombre des cellules L augmentent, nous constatons que plus la puissance de contamination des symboles pilotes (pp) est élevée, plus la capacité diminue dans le canal. Après plusieurs itérations, notre algorithme converge vers une asymptote (régime stationnaire et linéaire) où les échantillons à la sortie des détecteurs s’approchent de la séquence de données émises. Le SINR obtenu avec les détecteurs conventionnels permet le calcul des débits respectifs dans le canal avec le théorème de SHANNON. / This thesis made it possible to work on the efficiency of a channel of massive MIMO systems for which it is necessary to determine the throughput at the Uplink of the terminals present in their respective cells. As an assumption, the frequency band in TDD mode is reused in each cell. All symbols are propagated asynchronously by the terminals present in the cells, not effectively preventing intra- and inter-symbol interactions at the base stations. These signals encounter many obstacles on their path that lead to delays, signal losses (destructive), signal regenerations (constructive) with various types of modulation (amplitude, frequency, phase), etc. The path loss in the channel is highlighted with the different values taken by the attenuation coefficient chosen during the simulations. Faced with this situation, it was necessary to look for the best and most robust channel estimator at a given consistency time. The MMSE (Minimum Mean Square Error) method is used, compared to others. For the performance of massive MIMO systems, we have focused on antenna diversity methods (N-order diversity), coding methods, OFDMA access methods and equalization methods to show that effectively using multiple antennas at base stations improves and contributes to the desired rate gains. With massive MIMO systems, we have shown that antennar contribution is well recognized in interference management. An algorithm for calculating the flow rate at the Uplink was developed using three conventional receivers: the MRC (Maximum Ratio Combiner), the ZF (Zero-Forcing) and the MMSE (Minimum Mean Square Error). The simulations made it possible to compare the different approaches. By varying the contamination power of the pilot symbols, we observe the convergence of the ZF and MMSE curves. If the number of L cells increases, we find that the higher the contamination power of the pilot symbols (pp), the lower the capacity in the channel. After several iterations, our algorithm converges to an asymptote (stationary and linear regime) where the samples at the detector output approach the transmitted data sequence. The SINR obtained with conventional detectors allows the calculation of the respective flows in the channel with the SHANNON theorem.
10

Modèles de volterra à complexité réduite : estimation paramétrique et application à l'égalisation des canaux de communication

Kibangou, Alain Y. 28 January 2005 (has links) (PDF)
Une large classe de systèmes physiques peut être représentée à l'aide du modèle de Volterra. Il a notamment été montré que tout système non-linéaire, invariant dans le temps et à mémoire évanouissante peut être représenté par un modèle de Volterra de mémoire et d¤ordre finis. Ce modèle est donc particulièrement attrayant pour les besoins de modélisation et d'identification de systèmes non-linéaires. Un des atouts majeurs du modèle de Volterra est la linéarité par rapport à ses paramètres, c¤est à dire les coefficients de ses noyaux. Cette caractéristique permet d'étendre à ce modèle certains résultats établis pour l'identification des modèles linéaires. Il est à noter que le modèle de Volterra peut, par ailleurs, être vu comme une extension naturelle de la notion de réponse impulsionnelle des systèmes linéaires aux systèmes non-linéaires. Toutefois, certaines limitations sont à circonvenir: un nombre de paramètres qui peut être très élevé et un mauvais conditionnement de la matrice des moments de l'entrée intervenant dans l¤estimation du modèle au sens de l¤erreur quadratique moyenne minimale (EQMM). Il est à noter que ce mauvais conditionnement est aussi à l¤origine de la lenteur de convergence des algorithmes adaptatifs de type LMS (Least Mean Squares). Cette thèse traite principalement de ces deux questions. Les solutions apportées sont essentiellement basées sur la notion d'orthogonalité. D'une part, l'orthogonalité est envisagée vis à vis de la structure du modèle en développant les noyaux de Volterra sur une base orthogonale de fonctions rationnelles. Ce développement est d'autant plus parcimonieux que la base est bien choisie. Pour ce faire, nous avons développé de nouveaux outils d'optimisation des bases de Laguerre et BFOR (Base de Fonctions Orthonormales Rationnelles) pour la représentation des noyaux de Volterra. D'autre part, l'orthogonalité est envisagée en rapport avec les signaux d'entrée. En exploitant les propriétés statistiques de l¤entrée, des bases de polynômes orthogonaux multivariables ont été construites. Les paramètres du modèle de Volterra développé sur de telles bases sont alors estimés sans aucune inversion matricielle, ce qui simplifie significativement l¤estimation paramétrique au sens EQMM. L¤orthogonalisation des signaux d¤entrée a aussi été envisagée via une procédure de Gram-Schmidt. Dans un contexte adaptatif, il en résulte une accélération de la convergence des algorithmes de type LMS sans un surcoût de calcul excessif. Certains systèmes physiques peuvent être représentés à l¤aide d¤un modèle de Volterra simplifié, à faible complexité paramétrique, tel que le modèle de Hammerstein et celui de Wiener. C¤est le cas d¤un canal de communication représentant l'accès à un réseau sans fil via une fibre optique. Nous montrons notamment que les liaisons montante et descendante de ce canal peuvent respectivement être représentées par un modèle de Wiener et par un modèle de Hammerstein. Dans le cas mono-capteur, en utilisant un précodage de la séquence d'entrée, nous développons une solution permettant de réaliser l'estimation conjointe du canal de transmission et des symboles transmis de manière semiaveugle. Il est à noter que, dans le cas de la liaison montante, une configuration multi-capteurs peut aussi être envisagée. Pour une telle configuration, grâce à un précodage spécifique de la séquence d¤entrée, nous exploitons la diversité spatiale introduite par les capteurs et la diversité temporelle de sorte à obtenir une représentation tensorielle du signal reçu. En appliquant la technique de décomposition tensorielle dite PARAFAC, nous réalisons l'estimation conjointe du canal et des symboles émis de manière aveugle. Mots clés: Modélisation, Identification, Bases orthogonales, Base de Laguerre, Base de fonctions orthonormales rationnelles, Polynômes orthogonaux, Optimisation de pôles, Réduction de complexité, Egalisation, Modèle de Volterra, Modèle de Wiener, Modèle de Hammerstein, Décomposition PARAFAC.

Page generated in 0.1169 seconds