411 |
Time Synchronization in Radio Communication Networks Using LTE Base StationsNordström, William January 2024 (has links)
This thesis investigates time synchronization, which is crucial in various applications, such as power grid monitoring, communication systems, and in the fusion of information from different sensors. Global Navigation Satellite Systems (GNSS) are currently the state-of-the-art for time synchronization in distributed wireless sensor networks. However, due to GNSS being vulnerable to jamming, alternative methods are required to ensure robustness in critical systems. Preferably, a system would not be controlled by a single country or organization, e.g., GPS. Therefore, time synchronization methods utilizing commonly available signals, such as radio or television broadcasting, are of interest. Long Term Evolution (LTE), the fourth-generation (4G) cellular network, is widely accessible and the framework is internationally standardized. Consequently, the scope of the thesis is limited to LTE-based methods for time synchronization. Based on the desired receiver-to-receiver characteristics, Scalable Wireless Network Synchronization (SWINS) and Reference Broadcast Synchronization (RBS) were selected to obtain time synchronization. RBS is an active synchronization method requiring communication within the sensor network, while the passive SWINS method solely relies on self-captured measurements. Time synchronization performance was evaluated using Matlab. Simulations show an increased accuracy for SWINS in synchronized LTE networks, while RBS is superior in unsynchronized cellular networks. Both LTE-based methods show performance comparable to the time synchronization accuracy guaranteed with publicly available GPS signals. A sensitivity analysis with varying disturbances shows that jointly estimating time offset and position is preferred to sole time offset estimation if the transceiver position uncertainty exceeds 50 meters.
|
412 |
Stratégies de coopération dans les réseaux radio cognitifKouassi, Boris Rodrigue 25 October 2013 (has links) (PDF)
Les réseaux radio actuelles utilisent le spectre inefficacement, car une bande de fréquence est allouée de façon permanente à une technologie spécifique. Vu que le spectre est une ressource limitée, cette attribution statique ne pourra bientôt plus combler les besoins des systèmes de transmission qui ne cessent de croître. On peut toutefois optimiser l'utilisation du spectre en permettant des transmissions secondaires (SU) dans les espaces libres du primaire (PU). Cette vision constitue l'objectif principal de la radio cognitive. Nous proposons d'évaluer les stratégies de transmission pour la coexistence des systèmes primaires (PU) et SU dans les mêmes réseaux. Plus concrètement, nous nous focalisons sur un scénario spatial interweave en émettant les signaux SU dans les espaces vides du PU à l'aide d'un précodeur linéaire. Néanmoins, ce précodage nécessite une connaissance a priori des canaux interférents. L'échange d'informations entre le PU et le SU étant proscrit, nous exploitons l'hypothèse de la réciprocité du canal. Cette hypothèse compense l'absence de coopération, mais elle n'est pas si évidente à exploiter en pratique à cause des perturbations des circuits radio fréquence. Nous suggérons de compenser ces perturbations par des méthodes de calibration relative. Nous proposons ensuite une implémentation temps-réel des solutions sur une plateforme LTE. Pour finir, nous généralisons l'approche RC à un système de transmission multi-utilisateurs, à travers une combinaison des techniques RC et massive MIMO, cette approche constitue s'établit comme une solution à la progression exponentielle du trafic.
|
413 |
4G LTE : eMBMS with MBSFN Service Simulation using OPNETWalid, Abdelrahman January 2014 (has links)
Long Term Evolution (LTE) known in the market as 4G LTE, it is an evolution of the GSM/UMTS standard. The overall aim of LTE was to provide a new radio access technology focusing on packet-switched data only. LTE has provided a new peak download rates, low data transfer latencies, and improved the support for mobility. 3Th Generation Partnership Project (3GPP) specialized that LTE released 10 and beyond known as LTE-advanced it is the second evolution of LTE. It has some services such as Coordinated Multipoint Transmission and Reception (CoMP), evolved Multimedia Broadcast and Multicast Service (eMBMS) with Multicast-Broadcast Single-Frequency Network (MBSFN). The development still continuous on LTE-advanced, it is intended to meet the requirement of advanced application that will become common in the wireless marketplace in future. The goals of this project is to simulate one of LTE-A services on LTE standard such as CoMP or/and eMBMS with MBSFN using OPENT LTE, and measure some statistic such as spectral efficiency and also some other statistics, describe centralization vs. decentralization in LTE, and synchronization in the base station in LTE. OPNET LTE support eMBMS with MBSFN, and don’t support CoMP, the simulation has been done by using eMBMS with MBSFN. Finally the objectives of the project has achieved, the result show that when eMBMS with MBSFN is implemented the throughput increased in the downlink to about 5.52 Mbps and in the uplink to about 5.18 Mbps, and also the system spectral efficiency increased in eNB1 from about 10.25 (bits/s/Hz/cell) to about 13.75 (bits/s/Hz/cell) and in eNB2 from about 10.25 (bits/s/Hz/cell) to about 17.25 (bits/s/Hz/cell). The project also answers if it is possible to have centralization in LTE, describe synchronization in the base station in LTE, and if OPNET is useful for big research.
|
414 |
Multihoming in heterogeneous wireless networks / Le multihoming dans les réseaux sans fil hétérogènesDandachi, Ghina 21 July 2017 (has links)
Les réseaux mobiles de la cinquième génération (5G) sont conçus pour introduire de nouveaux services nécessitant des débits de données extrêmement hauts et une faible latence. 5G sera un changement de paradigme qui comprend des réseaux hétérogènes densifiés, des réseaux d'accès radio virtualisés, des fréquences porteuses à ondes millimétrées et des densités de périphériques très élevées. Cependant, contrairement aux générations précédentes, 5G sera un réseau holistique, intégrant n'importe quelle nouvelle technologie radio avec les technologies LTE et WiFi existant. Dans ce contexte, on se concentre sur de nouvelles stratégies d'allocation de ressources capables de bénéficier du multihoming dans le cas d'accès double au réseau. On modélise ces algorithmes au niveau du flux et analyse leurs performances en termes de débit, de stabilité du système et d'équité entre différentes catégories d'utilisateurs. On se concentre tout d'abord sur le multihoming dans les réseaux hétérogènes LTE/WiFi. On considère les allocations centrées sur le réseau où un planificateur central effectue des allocations d'équité proportionnelle (PF) locale et globale pour différentes classes d'utilisateurs, utilisateurs individuels (single-homed) et multi-domiciliés (multihomed). Par rapport à un modèle de référence sans multihoming, on montre que les deux stratégies améliorent la performance et la stabilité du système, au détriment d'une plus grande complexité pour la stratégie PF globale. On étudie également les stratégies d'allocation centrées sur l'utilisateur, dans lesquelles les utilisateurs multihomed décident la partition de la demande d'un fichier en utilisant soit la maximisation du débit crête, soit la stratégie assistée par réseau. On montre que cette dernière stratégie maximise le débit moyen dans l'ensemble du réseau. On montre également que les stratégies centrées sur le réseau permettent d'obtenir des débits de données plus élevés que ceux centrés sur l'utilisateur. Ensuite, on se concentre sur les réseaux d'accès radio virtuels (V-RAN) et en particulier sur l'allocation de multi-ressources. On étudie la faisabilité de la virtualisation sans diminuer ni la performance des utilisateurs, ni la stabilité du système. On considère un réseau hétérogène 5G composé de cellules LTE et mm-wave afin d'étudier comment les réseaux hauts fréquence peuvent augmenter la capacité du système. On montre que la virtualisation du réseau est réalisable sans perte de performance lors de l'utilisation de la stratégie « dominant resource fairness » (DRF). On propose une stratégie d'allocation en deux phases (TPA) qui montre un indice d'équité plus élevé que DRF et une stabilité du système plus élevée que PF. On montre également des gains importants apportés par l'adoption des fréquences mm-wave au lieu de WiFi. Finalement, on considère l'efficacité énergétique et compare les stratégies DRF et TPA avec une stratégie éconergétique basée sur l'algorithme de Dinklebach. Les résultats montrent que la stratégie éconergétique dépasse légèrement DRF et TPA à charge faible ou moyenne en termes de débit moyen plus élevé avec une consommation d'énergie comparable, alors qu'elle les surpasse à une charge élevée en termes de consommation d'énergie moins élevée. Dans ce cas de charge élevée, DRF surpasse TPA et la stratégie éconergétique en termes de débit moyen. En ce qui concerne l'indice d'équité de Jain, TPA réalise l'indice d'équité le plus élevé parmi d'autres stratégies / Fifth generation mobile networks (5G) are being designed to introduce new services that require extreme broadband data rates and utlra-reliable latency. 5G will be a paradigm shift that includes heterogeneous networks with densification, virtualized radio access networks, mm-wave carrier frequencies, and very high device densities. However, unlike the previous generations, it will be a holistic network, tying any new 5G air interface and spectrum with the currently existing LTE and WiFi. In this context, we focus on new resource allocation strategies that are able to take advantage of multihoming in dual access settings. We model such algorithms at the flow level and analyze their performance in terms of flow throughput, system stability and fairness between different classes of users. We first focus on multihoming in LTE/WiFi heterogeneous networks. We consider network centric allocations where a central scheduler performs local and global proportional fairness (PF) allocations for different classes of users, single-homed and multihomed users. By comparison with a reference model without multihoming, we show that both strategies improve system performance and stability, at the expense of more complexity for the global PF. We also investigate user centric allocation strategies where multihomed users decide the split of a file using either peak rate maximization or network assisted strategy. We show that the latter strategy maximizes the average throughput in the whole network. We also show that network centric strategies achieve higher data rates than the user centric ones. Then, we focus on Virtual Radio Access Networks (V-RAN) and particularly on multi-resource allocation therein. We investigate the feasibility of virtualization without decreasing neither users performance, nor system's stability. We consider a 5G heterogeneous network composed of LTE and mm-wave cells in order to study how high frequency networks can increase system's capacity. We show that network virtualization is feasible without performance loss when using the dominant resource fairness strategy (DRF). We propose a two-phase allocation (TPA) strategy which achieves a higher fairness index than DRF and a higher system stability than PF. We also show significant gains brought by mm-wave instead of WiFi. Eventually, we consider energy efficiency and compare DRF and TPA strategies with a Dinklebach based energy efficient strategy. Our results show that the energy efficient strategy slightly outperforms DRF and TPA at low to medium load in terms of higher average throughput with comparable power consumption, while it outperforms them at high load in terms of power consumption. In this case of high load, DRF outperforms TPA and the energy efficient strategy in terms of average throughput. As for Jain's fairness index, TPA achieves the highest one
|
415 |
Context-aware mechanisms for device discovery optimization / Mécanismes sensibles au contexte pour l’optimisation de la découverte des appareilsBen Mosbah, Aziza 28 November 2017 (has links)
La recherche dans les réseaux de communication cherche à améliorer la capacité et les performances des technologies de réseaux tout en satisfaisant à la fois la demande croissante d’instantanéité des accès et des échanges d’information. Par exemple, les travaux sur les systèmes sans-fil de cinquième génération (5G) visent à augmenter le débit de données et l’efficacité spectrale mais aussi à réduire la latence et la consommation d’énergie. Dans ce contexte, la mise en réseau basée sur la proximité est envisagée afin d’améliorer l’échange d’information entre périphériques proches, même dans le cas où aucune infrastructure n’est disponible. Une composante essentielle de ces solutions est la capacité de rapidement détecter (ou découvrir) les autres systèmes à proximité. Bien que l’utilisation de la découverte des systèmes et de services ne soit pas à proprement parler une nouveauté dans les réseaux, son adoption dans les réseaux sans-fil a augmenté l’importance et la pertinence de ce type de mécanismes. Par conséquence, l’objectif de cette thèse est d’optimiser les performances du processus de découverte en utilisant des mécanismes contextuels. Dans un premier temps, nous commençons par une description préliminaire des défis auxquels sont confrontés les utilisateurs du réseau et comment les solutions actuelles (c’est-à-dire Long Term Evolution (LTE)) ne peuvent pas couvrir leurs besoins. Dans un deuxième temps, nous présentons l’architecture utilisée pour évaluer nos propositions: l’architecture appareil-à-appareil (D2D) qui est définie par le programme de partenariat de troisième génération (3GPP) pour être utilisée dans les réseaux LTE. Nous mettrons tout particulièrement l’accent sur la description du processus de découverte tel qu’il est défini dans les spécifications. Finalement, nous présentons une étude analytique, avec un modèle de mise en oeuvre pour tester et valider les performances de la découverte directe. En utilisant cette analyse, nous proposons un algorithme de transmission adaptatif qui optimise le processus de découverte pour les topologies statiques. Cette contribution sert de base à des algorithmes étendus et améliorés ciblant premièrement des scénarios où la disponibilité de données historiques permet de prédire les fluctuations de la densité des utilisateurs, et deuxièmement des situations entièrement dynamiques sans infrastructure ou support externe, montrant comment les mécanismes contextuels peuvent fournir des performances presque optimales. Toutes ces contributions et ces analyses sont supportées et validées par des modèles de simulation et des expériences qui montrent l’importance et l’exactitude de nos propositions dans l’optimisation de la performance et de la fiabilité dans le cadre de la découverte directe / Research in communication networks aims to improve the capabilities and performance of network technologies, and to satisfy the ever increasing demand for instant information access and exchange. For example, work on Fifth Generation (5G) Wireless Systems aims to increase data rates and spectral efficiency while lowering latency and energy consumption. Within this context, proximity-based networking is being considered in order to improve the data sharing between nearby devices, regardless of the availability of additional infrastructure. An integral component of these solutions is the ability to quickly detect (or discover) other systems in the vicinity. While system and service discovery has been a concept used in networks for some time, its adoption by wireless networks has increased the importance and relevance of this type of mechanisms. Therefore, the goal of this thesis is to optimize the performance of the discovery process by using context-aware mechanisms. First, we start by an introductory description of the challenges faced by network users and how current solutions (i.e. Long Term Evolution (LTE)) are unable to cover their needs. Second, we present the architecture we will use to evaluate our proposals, namely the device-to-device (D2D) architecture defined by the Third-Generation Partnership Program (3GPP) for use in LTE networks, with an emphasis on the description of the discovery process as defined in the standard specifications. Then, we present an analytical study, along with an implementation model to test and validate the performance of direct discovery. Building upon that analysis, we propose an adaptive transmission algorithm that optimizes the discovery process for static topologies. This contribution is used as the foundation for extended and enhanced algorithms targeting scenarios where the availability of historic data allows for predicting user density fluctuations, and fully dynamic situations without external infrastructure or support, showing how context-aware mechanisms can provide almost optimal performance. All these contributions and analysis are supported and validated by simulation models and experiments that showcase the importance and correctness of our proposals in the optimization of the performance and reliability in D2D direct discovery
|
416 |
Development of an antenna system for a relay-based wireless network : simulation and measurement of antenna systems for relay-based wireless network, covering the backhaul and access links and applying beam forming technologyPetropoulos, Ioannis January 2012 (has links)
The proliferation of modern wireless networks increases demand for high capacity and throughput in order to provide faster, more robust, efficient and broadband services to end users. Mobile WiMAX and LTE are examples of such networks in which for some cases they have exposed limited connectivity due to harsh environment. Relay stations are preferred to overcome problems of weak or no access for such network devices, that are placed in specific positions to maintain high quality of data transfer at low cost and provide the required connectivity anywhere anytime. These stations should be equipped with an antenna system capable of establishing communication between base station (backhaul link) and end users (access link). This thesis focuses on the design and development of a new antenna system that is suitable for a relay-based wireless network. Planar geometries of microstrip patch antennas are utilized. The antenna system comprises two antenna modules: a new design of a single antenna for access link and a new design of an antenna array for backhaul link realization. Both antenna specifications are compatible with the IEEE802.16j protocol standard. Hence, relay station should be capable of pointing its radiation pattern to the base station antenna, thus to achieve the desired radiation pattern of the relay station, a new beam-forming module is proposed, designed and developed to generate the proper radiation pattern. The beam-forming module incorporating digital phase shifters and attenuator chips is fabricated and tested. The optimization process using the Least Mean Square (LMS) algorithm is considered in this study to assign the proper phase and amplitude that is necessary to each radiation element excitation current, to produce the desired steered radiation pattern. A comprehensive study on the coupling effects for several relative positions between two new backhaul and access link antenna elements is performed. Two new antenna configurations for coupling reduction are tested and the simulated and measured results in terms of antenna radiation performances were compared and commented.
|
417 |
Digital Pre-distortion for Interference Reduction in Dynamic Spectrum Access NetworksFu, Zhu 23 April 2014 (has links)
Given the ever increasing reliance of today’s society on ubiquitous wireless access, the paradigm of dynamic spectrum access (DSA) as been proposed and implemented for utilizing the limited wireless spectrum more efficiently. Orthogonal frequency division multiplexing (OFDM) is growing in popularity for adoption into wireless services employing DSA frame- work, due to its high bandwidth efficiency and resiliency to multipath fading. While these advantages have been proven for many wireless applications, including LTE-Advanced and numerous IEEE wireless standards, one potential drawback of OFDM or its non-contiguous variant, NC-OFDM, is that it exhibits high peak-to-average power ratios (PAPR), which can induce in-band and out-of-band (OOB) distortions when the peaks of the waveform enter the compression region of the transmitter power amplifier (PA). Such OOB emissions can interfere with existing neighboring transmissions, and thereby severely deteriorate the reliability of the DSA network. A performance-enhancing digital pre-distortion (DPD) technique compensating for PA and in-phase/quadrature (I/Q) modulator distortions is proposed in this dissertation. Al- though substantial research efforts into designing DPD schemes have already been presented in the open literature, there still exists numerous opportunities to further improve upon the performance of OOB suppression for NC-OFDM transmission in the presence of RF front-end impairments. A set of orthogonal polynomial basis functions is proposed in this dissertation together with a simplified joint DPD structure. A performance analysis is presented to show that the OOB emissions is reduced to approximately 50 dBc with proposed algorithms employed during NC-OFDM transmission. Furthermore, a novel and intuitive DPD solution that can minimize the power regrowth at any pre-specified frequency in the spurious domain is proposed in this dissertation. Conventional DPD methods have been proven to be able to effectively reduce the OOB emissions that fall on top of adjacent channels. However more spectral emissions in more distant frequency ranges are generated by employing such DPD solutions, which are potentially in violation of the spurious emission limit. At the same time, the emissions in adjacent channel must be kept under the OOB limit. To the best of the author’s knowledge, there has not been extensive research conducted on this topic. Mathematical derivation procedures of the proposed algorithm are provided for both memoryless nonlinear model and memory-based nonlinear model. Simulation results show that the proposed method is able to provide a good balance of OOB emissions and emissions in the far out spurious domain, by reducing the spurious emissions by 4-5 dB while maintaining the adjacent channel leakage ratio (ACLR) improvement by at least 10 dB, comparing to the PA output spectrum without any DPD.
|
418 |
Conception et réalisation d'un système de Télécommunications MIMO avec Formation Numérique de Faisceaux en réception ; Calibrage aveugle du Démodulateur triphasé Zéro-IF et comparaison au démodulateur classique à 2 voies I et Q.Mabrouk, Kais 12 December 2008 (has links) (PDF)
Dans le cadre de ce travail de recherche, nous nous somme intéressés à un système de télécommunication MIMO (Multiple Input Multiple Output) à multiplexage spatial utilisant des récepteurs Zero-IF et la technique de formation numérique de faisceaux (FF). Le domaine d'application de ces travaux de recherches peuvent être aussi bien les applications fixes (exp: WiFi, IEEE) que les applications mobiles (exp: LTE, 3GPP).<br /> La première partie de ce travail est consacrée à une étude comparative entre les différents types de démodulateurs cinq-port et triphasés. Cette étude a permis de mettre en évidence l'aspect tridimensionnel des démodulateurs cinq-port et triphasés, de gagner 20dB en termes de réjection des produits d'intermodulation des signaux adjacents et de trouver une nouvelle méthode de calibrage aveugle du récepteur.<br /> La seconde partie de la thèse se concentre sur le prototypage d'un système MIMO. Cette phase nous a permis d'exposer les difficultés de mise en place de ce genre de système et de souligner les nouvelles problématiques qui n'apparaissait pas auparavant dans les systèmes mono- transcepteur. Aussi, un algorithme de Formation de Faisceau a été développé dans cette partie. Ce FF numérique a permis non seulement d'accroître la capacité mais aussi la qualité de liaison en considérant le système MIMO comme N système SIMO en parallèle. Comparativement à la technique ZF(Zero Forcing), nous démontrons que le FF permet d'obtenir une meilleure qualité de signaux pour des faibles valeurs de rapport signal à bruit.
|
419 |
使用調適性的CoMP於LTE-A Downlink端提升頻譜的使用率 / Hierarchical Adaptive Clustering for CoMP in LTE-A Downlink Transmission to Improve the Spectrum Efficiency蔡欣儒, Tsai, Hsin Ju Unknown Date (has links)
第四代行動通訊系統(The Fourth Generation of Mobile Communications System,簡稱4G)LTE-A(Long Term Evolution-Advanced)利用載波聚合(Carrier Aggregation)與多天線MIMO(Multi-Input Multi-Output)通道技術大幅提升上傳與下載的傳輸速率,並加入協同多點協調傳輸(Co-ordinated Multi-Point Transmission)技術加強基地台服務的覆蓋率。透過LTE-A的CoMP聯合運作(Joint Processing)方式,藉由鄰近基地台之間的互相協助,有助於位於細胞邊緣處之使用者裝置(User Equipment,UE)訊號傳輸品質提升,將周圍鄰近之基地台訊號的干擾化為有益之訊號來源。中繼技術(Relay)則能將來自基地台之無線電訊號接收後經過解碼與編碼再送出,提升周遭UE接收的訊號強度。
基於行動網路環境中使用者的移動性,細胞邊緣使用者的人數與位置分布隨時間改變,傳統CoMP傳輸多屬靜態的叢集演算法事先定義CoMP傳輸叢集,導致傳輸叢集不符合細胞邊緣使用者的分布與需求,細胞邊緣使用者的傳輸增益有限。動態的CoMP傳輸雖然較靜態的CoMP傳輸符合邊緣使用者的需求與分布,然而,因其屬於分散式的架構缺乏管理控制中心,規劃傳輸叢集的過程需仰賴基地台之間頻繁的控制訊號溝通。
本論文提出一個動態的CoMP傳輸叢集演算法-階層式動態CoMP傳輸叢集演算法(Hierarchical Adaptive Clustering for CoMP ,HACC),透過階層式架構,不但具備靜態CoMP傳輸演算法集中式系統的優點,也保有動態CoMP傳輸演算法隨使用者分布調整傳輸叢集的特點。首先於系統定義之叢集中選出上層叢集代表(top cluster head,TCH),由基地台收集服務範圍內UE分布與通訊品質,篩選出細胞邊緣使用者並傳遞此資訊給TCH,由TCH選出較多細胞邊緣使用者的區域為CoMP傳輸叢集之子代表(sub-cluster head),以CoMP傳輸叢集之子代表為中心點尋找相鄰的區域形成CoMP傳輸叢集。除此之外,再搭配Relay延伸來自基地台之訊號,強化基地台服務範圍內非邊緣區域之訊號,提供UE更佳的傳輸品質。
透過實驗模擬證實,本論文提出的方法在系統整體UE的資料吞吐量比傳統靜態以及Hongbin et al.[10]提出之以UE需求為主的動態CoMP叢集演算法來的優異,特別是對位於細胞邊緣通訊不良處之UE資料吞吐量有更顯著之改善,系統整體的頻譜效率也有所提升。 / The fourth-generation mobile communications system (4G) LTE-A (Long Term Evolution-Advanced) uses carrier aggregation and multi-antenna MIMO channel technology dramatically to increase the speed in both uplink and downlink, and use coordinated multi-point transmission(CoMP) and relay to improve the coverage of base station. Through joint processing(JP) in CoMP, base station(BS) communicates with adjacent BSs and then some of them build up a CoMP cluster helping the user equipment(UE) which is located at the edge of cell by enhancing the signal strength. CoMP-JP is able to transform interference from adjacent cells into useful signals. Relay technology receives radio signals and then amplifies signals before re-transmission to strengthen signals.
The number of cell-edge users and their locations change with time due to the mobility of users in mobile communications system. Most traditional static CoMP transmission clustering algorithm are predefined CoMP clusters. As the distribution of cell-edge users in the system changes, the transmission clusters may not meet the needs of cell edge UEs so that the transmission gain is limited. Compared with static CoMP clustering, dynamic CoMP clustering changes with time to meet the needs of cell-edge UEs, providing an appropriate service to cell-edge UEs. However, dynamic system belongs to distributed system and lacks management control center, it highly depends on frequent communication signals among base stations during the process of clustering generation.
This paper proposes a dynamic clustering algorithm for CoMP-JP - Hierarchical Adaptive Clustering for CoMP (HACC). By hierarchical structure, HACC not only has the advantages of static CoMP centralized system, but also maintains the characteristics of dynamic CoMP adjusting the clustering with cell-edge users. At the first step, we define an upper cluster representative of the group (top cluster head). Then, depending on the number of cell-edge UEs in every sector, the system chooses sub-cluster head. Sub-cluster head chooses neighboring sectors to generate a CoMP-JP transmission cluster. In addition, relay stations amplify the signal from BS providing better transmission quality for non-cell-edge UEs.
Simulation results show that the proposed method outperforms traditional static CoMP clustering and UE-specific CoMP clustering method proposed by Hongbin et al.[10] in data throughput, particularly for cell-edge UEs, and spectrum utilization.
|
420 |
Etude et implémentation d'une architecture de décodage générique et flexible pour codes correcteurs d'erreurs avancésDION, Jean 05 November 2013 (has links) (PDF)
Le codage de canal est une opération mathématique qui améliore la qualité des transmissions numériques en corrigeant les bits erronés en réception. Les contraintes des usages comme la qualité de réception, les débits d'utilisation, la latence de calcul, la surface ou encore la consommation électrique favorisent l'usage de différents codes dans la standardisation des protocoles de communication. La tendance industrielle est à la convergence des réseaux de communication pour des usages variés. Ce large choix de codage devient un handicap pour la conception de transmetteurs à bas coûts. Les réseaux médias favorisent des codes correcteurs d'erreurs avancés comme les turbocodes et les codes LDPC pour répondre aux contraintes de qualité de réception. Or ces procédés ont un coût de décodage important sur les récepteurs finaux. Une architecture adaptée à plusieurs types de codes capable d'évoluer en fonction d'une modification du protocole d'accès devient inévitable pour élaborer de nouveaux scénarios d'usages. Ce mémoire présente le principe du codage de canal et la plupart des codes correcteurs d'erreurs avancés sélectionnés dans les standards de communication courants. Les caractéristiques communes des codes QC-LDPC et des turbocodes sont soulignées. Les principaux algorithmes ainsi que certaines architectures de décodage sont présentés. La complexité matérielle des principaux algorithmes de décodage est évaluée. Ils sont comparés pour un même code et à un niveau de correction équivalent pour les codes QC-LDPC. Une étude similaire est réalisée sur les turbocodes. Les algorithmes de décodage sont appliqués sur des codes de tailles et de rendements proches et dimensionnés pour atteindre une correction similaire afin de sélectionner un algorithme de décodage conjoint aux deux familles de code. Les codes QC-LDPC et les turbocodes se structurent à l'aide d'une représentation en treillis commune. La technique de fenêtrage couramment appliquée au décodage des turbocodes est étudiée pour le décodage d'un code QC-LDPC. Enfin, l'entrelacement des codes QC-LDPC est mis en évidence et reconsidéré en fonction des contraintes matérielles. Un coeur de décodage de treillis compatible avec les standards 3GPP LTE et IEEE 802.11n est proposé. Plusieurs structures de décodage sont ensuite introduites incorporant un ou plusieurs de ces coeurs. L'intégration sur cible FPGA est détaillée. Un scénario d'utilisation avec un contexte de décodage évoluant à chaque message reçu est proposé ce qui souligne l'impact de la reconfiguration sur les débits de décodage. La structure multistandard nécessite 4,2 % (respectivement 5,3 %) de ressources matérielles supplémentaires à une structure compatible avec le standard 3GPP LTE (resp. IEEE 802.11n) seul. La dégradation du débit maximal due à la reconfiguration entre le décodage des mots de code est d'au plus 1 %. Une architecture à plusieurs coeurs est également portée sur une cible ASIC de 65 nm. Cette architecture fonctionne à une fréquence de 500 Mhz sur une surface de 2,1 mm2 décodant les mots de code 3GPP LTE et IEEE 802.11n, et acceptant une reconfiguration dynamique entre deux mots de code consécutifs.
|
Page generated in 0.1029 seconds