191 |
Exploration de nouvelles voies thérapeutiques contre le cancer du col de l'utérus : approche combinée par adénovirus et ARN interférenceBonetta, Anaëlle 16 January 2013 (has links) (PDF)
Le cancer du col de l'utérus est le troisième cancer le plus fréquent chez la femme, dont l'agent étiologique majeur est l'infection par les papillomavirus humain (notamment HPV-16 et 18), qui sont de petits virus infectant les épithéliums muqueux et cutanés, et pouvant induire la formation de tumeurs. L'inducteur majeur du processus oncogène est le processus d'intégration des régions codantes pour les oncoprotéines E6 et E7, au sein de la cellule hôte suite à l'infection. Elles interférent avec le cycle cellulaire et induisent notamment l'immortalisation, voire la transformation des cellules. Les fonctions les plus connue de ces deux oncoprotéines sont la dégradation des suppresseurs de tumeur p53 et pRb, respectivement. Mon travail de thèse à consisté en la mise au point des vecteurs adénoviraux exprimant des miARN dirigés contre l'oncoprotéine E6. Exprimés in vitro ils induisent l'induction de la mort cellulaire par apoptose des cellules tumorales traitées, via l'activation de la voie de caspases, et in vivo permettent le ralentissement de la croissance de tumeurs xénogreffées à des souris Nude. De plus, la stratégie thérapeutique adénovirale a montré ses extensions possibles sur d'autres types de cancers HPV-positifs, mais également via l'expression de différentes moléculaires thérapeutiques, visant à empêcher l'interaction des oncoprotéines telles qu'E6 avec leurs partenaires cellulaires et ainsi les empêcher d'exercer les activités biologiques impliquées dans le développement de cancers. Pour finir, les adénovirus peuvent également être vu comme des outils d'extinction fonctionnels d'E6 et permettant d'étudier les répercutions sur d'autres processus cellulaires.
|
192 |
Modélisation et simulation de réseaux locaux et personnels sans fil : intégration des couches PHY et MACBerthe, Abdoulaye 27 January 2010 (has links) (PDF)
Dans ce travail nous nous intéressons à la modélisation des couches MAC et PHY dans le cadre des réseaux sans fil à faible, portée. Il présente les techniques de modélisation utilisées pour l'intégration des couches MAC-PHYs (Medium Access Control and Physical layer) de type IR-UWB (Impulse Radio Ultra Wideband) d'une part, et des nouvelles techniques de transmission à 60GHz incluant le beamforming d'autre part, dans le simulateur GloMoSim/QualNet. La modélisation de IR-UWB est basée sur la prise en compte directe des collisions d'impulsions et de l'interférence multi-utilisateur au niveau de la couche PHY par l'introduction du concept de séquences de réception et la notion d'orthogonalité en réception. L'architecture de modélisation proposée est basée sur l'utilisation d'une matrice d'interférence, elle a été développée en deux étapes : une première modélisation basée sur des trains d'impulsions uniformément espacées et une deuxième modélisation plus complète prenant en compte l'utilisation des séquences de sauts aléatoires également appelés séquences de time hopping. L'évaluation de performances de cette partie est basée sur une application typique des réseaux de capteurs dans le cadre d'une application de détection d'intrusion sur une surface protégée. La modélisation à 60 GHz à pour but la prise en compte des nouvelles techniques d'amélioration du débit, notamment l'agrégation et le beamforming. La prise en compte du beamforming est basée sur la définition, des diagrammes de rayonnement des antennes ainsi que de l'interface MAC-PHY/Antenne. La modélisation des deux protocoles de beamforming définis dans le standard 802.15.3c est également effectuée. L'évaluation de performances de cette partie est basée sur un système de distribution de contenu multimédia.
|
193 |
Sources de lumière pour l'information quantiqueMessin, Gaëtan 10 July 2008 (has links) (PDF)
L'information quantique et ses protocoles de cryptographie, de téléportation et de calcul ont trouvé dans les sources quantiques de lumière un ensemble d'outils à très fort potentiel. Les sources de photons uniques déclenchées en font évidement partie, tout comme les sources de photons jumeaux, sur lesquelles reposent l'émission de photons annoncés ou la production de paires de photons intriqués en polarisation. Les sources quantiques de lumière ne cessent de trouver de nouvelles applications comme par exemple l'intrication conditionnelle d'émetteurs de photons uniques par la mesure conjointe des photons qu'elles émettent, l'augmentation d'intrication de faisceaux EPR ou encore le stockage de photons uniques dans des vapeurs atomiques.<br /><br />L'ensemble de mes activités de recherche s'inscrit dans ce mouvement. Mes travaux ont porté en grande partie sur les sources de photons uniques et les sources de paires de photons, ainsi que leurs applications à la cryptographie quantique, à la téléportation quantique et au calcul quantique. Mes travaux s'ouvrent maintenant sur la suite: variables continues, mémoires quantiques et téléportation d'états non classiques sont probablement les prochaines étapes.
|
194 |
Statistique de l'interférence quantique et circuits quantiques aléatoiresArnaud, Ludovic 17 December 2009 (has links) (PDF)
Cette thèse présente différents résultats sur deux thèmes relatifs à l'information quantique. Le premier de ces thèmes concerne l'interférence présente dans les algorithmes quantiques, en se basant sur une mesure récemment introduite dans la littérature. Pour ce faire, deux types de modèles statistiques d'algorithmes quantiques ont été utilisés : l'un issu de la théorie des matrices aléatoires (l'ensemble circulaire unitaire CUE), le second étant un ensemble de circuits quantiques construits comme des séquences aléatoires de portes quantiques. Les résultats analytiques et numériques obtenus dans cette thèse montrent qu'en moyenne tout algorithme quantique contient une grande quantité d'interférence. L'influence de la décohérence engendrée par un bain thermique sur le comportement statistique de l'interférence a aussi était étudiée, entre autre grâce à l'utilisation de méthodes mathématiques d'intégrations sur le groupe unitaire U(N). Le deuxième thème étudié concerne la possibilité d'utiliser des algorithmes quantiques pour créer efficacement des ensembles de matrices aléatoires distribuer selon CUE. Pendant les travaux sur l'interférence, une équivalence entre CUE et le modèle de circuits quantiques aléatoires fût observée. Les résultats numériques de cette thèse montrent que certaines quantités statistiques propres à CUE sont bien reproduites par le modèle de séquences aléatoires, ceci de manière efficace, dans le sens où les séquences sont constituées d'un nombre de portes qui augmente comme le logarithme de la taille des matrices produites. Ces résultats sont en parfait accord avec des travaux analytiques récemment publiés.
|
195 |
Développement et optimisation des diagnostiques des faisceaux du LHC et du SPS basé sur le suivi de la lumière synchrotron / Development and Optimization of the LHC and the SPS Beam Diagnostics Based on Synchrotron Radiation MonitoringTrad, Georges 22 January 2015 (has links)
La mesure de l’émittance transverse du faisceau est fondamentale pour tous les accélérateurs, et en particulier pour les collisionneurs, son évaluation precise étant essentielle pour maximiser la luminosité et ainsi la performance des faisceaux de collision.Le rayonnement synchrotron (SR) est un outil polyvalent pour le diagnostic non-destructif de faisceau, exploité au CERN pour mesurer la taille des faisceaux de protons des deux machines du complexe dont l’énergie est la plus élevée, le SPS et le LHC où l’intensité du faisceau ne permet plus les techniques invasives.Le travail de thèse documenté dans ce rapport s’est concentré sur la conception, le développement, la caractérisation et l’optimisation des moniteurs de taille de faisceau basés sur le SR. Cette étude est fondée sur un ensemble de calculs théoriques, de simulation numériques et d’expériences conduite au sein des laboratoires et accélérateurs du CERN. Un outil de simulation puissant a été développé, combinant des logiciels classiques de simulation de SR et de propagation optique, permettant ainsi la caractérisation complète d’un moniteur SR de la source jusqu’au détecteur.La source SR a pu être entièrement caractérisée par cette technique, puis les résultats validés par observation directe et par la calibration à basse énergie basée sur les mesures effectuées avec les wire-scanners (WS), qui sont la référence en terme de mesure de taille de faisceau, ou telles que la comparaison directe avec la taille des faisceaux obtenue par déconvolution de la luminosité instantanée du LHC.Avec l’augmentation de l’énergie dans le LHC (7TeV), le faisceau verra sa taille diminuer jusqu’à atteindre la limite de la technique d’imagerie du SR. Ainsi, plusieurs solutions ont été investiguées afin d’améliorer la performance du système: la sélection d’une des deux polarisations du SR, la réduction des effets liés à la profondeur de champ par l’utilisation de fentes optiques et l’utilisation d’une longueur d’onde réduite à 250 nm.En parallèle à l’effort de réduction de la diffraction optique, le miroir d’extraction du SR qui s’était avéré être la source principale des aberrations du système a été entièrement reconçu. En effet, la détérioration du miroir a été causée par son couplage EM avec les champs du faisceau, ce qui a conduit à une surchauffe du coating et à sa dégradation. Une nouvelle géométrie de miroir et de son support permettant une douce transition en termes de couplage d’impédance longitudinale dans le beam pipe a été définie et caractérisée par la technique dite du “streched wire”. Egalement, comme méthode alternative à l’imagerie directe, un nouveau moniteur basé sur la technique d’interférométrie à deux fentes du SR, non limité par la diffraction, a également été développé. Le principe de cette méthode est basé sur la relation directe entre la visibilité des franges d’interférence et la taille de faisceau.Comme l’emittance du faisceau est la donnée d’intérêt pour la performance du LHC, il est aussi important de caractériser avec précision l’optique du LHC à la source du SR. Dans ce but, la méthode “K-modulation” a été utilisée pour la première fois au LHC en IR4. Les β ont été mesurés à l’emplacement de tous les quadrupoles et ont été évalués via deux algorithmes de propagation différents au BSRT et au WS. / Measuring the beam transverse emittance is fundamental in every accelerator, in particular for colliders, where its precise determination is essential to maximize the luminosity and thus the performance of the colliding beams.
Synchrotron Radiation (SR) is a versatile tool for non-destructive beam diagnostics, since its characteristics are closely related to those of the source beam. At CERN, being the only available diagnostics at high beam intensity and energy, SR monitors are exploited as the proton beam size monitor of the two higher energy machines, the Super Proton Synchrotron (SPS) and the Large Hadron Collider (LHC). The thesis work documented in this report focused on the design, development, characterization and optimization of these beam size monitors. Such studies were based on a comprehensive set of theoretical calculations, numerical simulations and experiments.A powerful simulation tool has been developed combining conventional softwares for SR simulation and optics design, thus allowing the description of an SR monitor from its source up to the detector.
The simulations were confirmed by direct observations, and a detailed performance studies of the operational SR imaging monitor in the LHC, where different techniques for experimentally validating the system were applied, such as cross-calibrations with the wire scanners at low intensity (that are considered as a reference) and direct comparison with beam sizes de-convoluted from the LHC luminosity measurements.In 2015, the beam sizes to be measured with the further increase of the LHC beam energy to 7 TeV will decrease down to ∼190 μm. In these conditions, the SR imaging technique was found at its limits of applicability since the error on the beam size determination is proportional to the ratio of the system resolution and the measured beam size. Therefore, various solutions were probed to improve the system’s performance such as the choice of one light polarization, the reduction of depth of field effect and the reduction of the imaging wavelength down to 250 nm.In parallel to reducing the diffraction contribution to the resolution broadening, the extraction mirror, found as the main sources of aberrations in the system was redesigned. Its failure was caused by the EM coupling with the beam’s fields that led to overheating and deterioration of the coating. A new system’s geometry featuring a smoother transition in the beam pipe was qualified in terms of longitudinal coupling impedance via the stretched wire technique. A comparison with the older system was carried out and resulted in a reduction of the total power dissipated in the extraction system by at least a factor of four.A new, non-diffraction limited, SR-based monitor based on double slit interferometry was designed as well as an alternative method to the direct imaging. Its principle is based on the direct relation between the interferogram fringes visibility and the beam size.Since the beam emittance is the physical quantity of interest in the performance analysis of the LHC, determining the optical functions at the SR monitors is as relevant as measuring the beam size. The “K-modulation” method for the optical function determination was applied for the first time in the LHC IR4, where most of the profile monitors sit. The βs at the quadrupoles were measured and via two different propagation algorithms the βs at the BSRT and the WS were obtained reducing significantly the uncertainty at the monitors location.
|
196 |
Propriétés des anticorps anti-HLA en transplantation d'organes / Properties of HLA antibodies in organ transplantationVisentin, Jonathan 05 April 2016 (has links)
Les anticorps anti-HLA d’isotype IgG sont une cause de perte de greffon en transplantation d’organes.Les tests « single antigen » (SAFB) sont les outils les plus précis et sensibles pour l’identification desanticorps anti-HLA dirigés contre le donneur (DSA) dans le sérum des receveurs. Leur résultat semiquantitatif,la MFI, n’est pas parfaitement associé à l’issue clinique, ce qui pourrait être dû à plusieursraisons. Premièrement, nous avons montré que les SAFB de classe I détectent fréquemment des anticorpsanti-HLA dénaturé de classe I, incapables de se lier à la surface cellulaire et donc n’ayant pas designification clinique, alors qu’ils ont un impact négatif sur l’accès à la transplantation. Leuridentification a été réalisée par un traitement acide des billes et par un SAFB modifié, les iBeads®.Ces deux tests montraient de bonnes fiabilité et concordance, mais le traitement acide pouvait parfoisêtre mis en défaut alors que les iBeads® auraient une sensibilité légèrement inférieure aux SAFBclassiques. Deuxièmement, nous avons déchiffré l’interférence liée au complément : les IgG anti-HLA de forte MFIsont capables d’activer le complément à la surface des billes, conduisant à une accumulation desproduits de dégradation du C4 et du C3, capables de réduire la détection des IgG anti-HLA. Nousavons également démontré que les IgM anti-HLA étaient capables d’interférer avec la détection desIgG à travers une compétition pour l’épitope, un encombrement stérique et une activation ducomplément. Troisièmement, nous avons montré que la détection des DSA avec les SAFB dans les éluats debiopsies de poumons transplantés, preuve formelle que ces DSA interagissent avec le greffon,constituait un facteur de risque de perte du greffon. Nous avons également développé un système decapture en résonance plasmonique de surface permettant de déterminer la concentration et l’affinitédes anticorps anti-HLA, ce qui pourrait permettre d’étudier la façon dont les DSA interagissent avec legreffon. / IgG HLA antibodies are a cause of graft loss in organ transplantation. The single antigen flow beadsassays (SAFB) are the most precise and sensitive assays to identify donor specific HLA antibodies(DSA) in recipient’s sera. Their semi-quantitative readout, the mean fluorescence intensity (MFI), is notperfectly associated with graft outcomes, which could be due to several factors.Firstly, we showed that class I SAFB frequently detects denatured class I HLA antibodies which areunable to bind cell surface and then are clinically irrelevant, while they actually impact the access to atransplant. Their identification was performed through SAFB acid-treatment and a modified SAFBassay, the iBeads®. They had a high reliability and a good concordance, but the acid-treatment assaycan be put at fault in a few cases whereas iBeads® appeared slightly less sensitive than classicalSAFB. Secondly, we deciphered the complement interference phenomenon: high MFI level IgG HLAantibodies activate the complement cascade at bead surface, leading to the deposition of C4 and C3degradation products which are able to reduce IgG HLA antibodies detection. We also demonstratedthat IgM HLA antibodies interfere with IgG detection through competition for the epitope, allosterichindrance and complement activation. Thirdly, we demonstrated that the detection of DSA with SAFB in lung biopsy eluates, proving that theDSA interact with the graft, was a risk factor for graft loss. We further developed a capture system insurface plasmon resonance allowing the concentration and affinity of HLA antibodies to bedetermined, which could allow the way that the DSA interact with the graft to be studied.
|
197 |
Using chaos to enhance multi-user time-of-arrival estimation : application to UWB ranging systems / Utilisation du chaos pour améliorer l’estimation du temps d'arrivée dans le cas multi-utilisateur : application à un système de télémétrie de type UWBMa, Hang 23 April 2014 (has links)
Dans les décennies à venir, la connaissance d’informations très précises concernant la position d’un objet permettra de créer des applications révolutionnaires dans les domaines sociaux, médicaux, commerciaux et militaires. La technologie Ultra-Wideband (UWB) est considérée comme un bon candidat permettant de fournir des capacités de localisation précise grâce à la mesure de l’estimation du temps d'arrivée (TOA). Dans cette thèse, des algorithmes de mesure de distance dans le cas multi-utilisateurs pour des systèmes UWB sont étudiés afin d'atteindre une bonne précision pour une faible complexité, avec de la robustesse aux interférences multi-utilisateur et dans le cas d’un grand nombre d'utilisateurs. Au cours de la dernière décennie, les signaux chaotiques ont reçu une attention significative en raison d'un certain nombre de caractéristiques intéressantes. Les signaux chaotiques sont des signaux non périodiques, déterministes ou considérés comme pseudo-aléatoires provenant de systèmes dynamiques non linéaires. Leur bonne autocorrélation et leurs faibles propriétés d’inter corrélation les rendent particulièrement résistants aux évanouissements par trajets multiples et capables d'atténuer les interférences multi-utilisateur (MUI). En raison de leur grande sensibilité aux conditions initiales, il est possible de générer un grand nombre de signaux chaotiques pour accroître la capacité globale du système. Dans cette thèse, deux nouveaux algorithmes d'estimation de TOA sont proposés dans un cadre multi-utilisateur avec une faible complexité et une bonne robustesse. Le nombre d'utilisateurs pris en charge par ces deux algorithmes est beaucoup plus grand que dans le cas des estimateurs de TOA actuels. Cependant, l'utilisation de séquences d'étalement classique et d’impulsion limite l'amélioration des performances et la capacité du système. Afin d’apporter des améliorations, des signaux chaotiques sélectionnés sont utilisés comme séquences d'étalement ou impulsion dans les algorithmes proposés. Grâce à l'utilisation de signaux chaotiques, notre algorithme est non seulement amélioré, mais permet également l’utilisation d’un plus grand nombre d'utilisateurs par comparaison avec l’algorithme utilisant des signaux classiques / In the coming decades, highly accurate position information has the potential to create revolutionary applications in the social, medical, commercial and military areas. Ultra-Wideband (UWB) technology is considered as a potential candidate for enabling accurate localization capabilities through Time-of-Arrival (TOA) based ranging techniques. Over the past decade, chaotic signals have received significant attention due to a number of attractive features. Chaotic signals are aperiodic, deterministic, and random-like signals derived from nonlinear dynamical systems whose good autocorrelation, low cross-correlation and sensitivity to the initial conditions make them particularly suitable to ranging systems. In this thesis, two new multiuser TOA estimation algorithms are proposed with low complexity and robustness to MUI, the number of users supported by which is much larger than current multiuser TOA estimators. While, the use of classic spreading sequences and ranging pulse constrain the further improvement of ranging performance and system capacity. For breaking through the limit brought by the classic signals, the selected chaotic signals are employed as the spreading sequences or ranging pulse in our proposed algorithms. With the use of chaotic signals, our proposed algorithm not only obtains the additional improvement, but also with capability to support larger number of users comparing with its counterpart using classic signals
|
198 |
Effets d’un court entraînement de pleine conscience sur la douleur et la cognition : une étude expérimentale randomisée en double aveugleGill, Louis-Nascan 12 1900 (has links)
No description available.
|
199 |
Microscopie de fonction d’onde électronique / Microscopy of electronic wave functionHarb, Mahdi 15 September 2010 (has links)
Ce travail de thèse consiste à visualiser sur un détecteur sensible en position les oscillations spatiales des électrons lents (~ meV) émis par photoionisation au seuil en présence d’un champ électrique extérieur. La figure d’interférence obtenue représente quantiquement le module carré de la fonction d’onde électronique. Ce travail fondamental nous permet d’avoir accès à la dynamique électronique quelques µm autour de l’atome et donc de mettre en évidence plusieurs mécanismes quantiques (champ coulombien, interaction électron/électron..) se déroulant à l’échelle atomique. Malgré la présence d’un cœur électronique quoique limité dans Li, nous avons réussi, expérimentalement et pour la première fois, à visualiser la fonction d’onde associée aux états Stark quasi-discrets couplés au continuum d’ionisation. En outre, à l’aide des simulations quantiques de propagation du paquet d’ondes, basées sur la méthode de « Split-operator », nous avons réalisé une étude complète sur les atomes H, Li et Cs tout en dévoilant les effets significatifs des résonances Stark. Un très bon accord, sur et hors résonances, a été obtenu entre les résultats simulés et les résultats expérimentaux. Par ailleurs, nous avons développé un modèle analytique généralisable permettant de comprendre profondément le fonctionnement d’un spectromètre de VMI. Ce modèle repose sur l’approximation paraxiale, il est basé sur un calcul d’optique matricielle en faisant une analogie entre la trajectoire électronique et le rayon lumineux. Un excellent accord a été obtenu entre les prédictions du modèle et les résultats expérimentaux. / This work of thesis aims to visualize, on a position sensitive detector, the spatial oscillations of slow electrons (~meV) emitted by a threshold photoionization in the presence of an external electric field. The interference figure obtained represents the square magnitude of electronic wavefunction. This fundamental work allows us to have access to the electronic dynamics and thus to highlight several quantum mechanisms that occur at the atomic scale (field Coulomb, electron/electron interaction..). Despite the presence an electronic core in Li atom, we have succeeded, experimentally and for the first time, to visualize the wave function associated with the quasi-discrete Stark states coupled to the ionization continuum. Besides, using simulations of wave packet propagation, based on the "Split-operator” method, we have conducted a comprehensive study of the H, Li and Cs atoms while revealing the significant effects of the Stark resonances. A very good agreement, on and off resonances, was obtained between simulated and experimental results. In addition, we have developed a generalized analytical model to understand deeply the function of VMI spectrometer. This model is based on the paraxial approximation; it is based on matrix optics calculation by making an analogy between the electronic trajectory and the light beam. An excellent agreement was obtained between the model predictions and the experimental results.
|
200 |
On design concept for full-duplex based flexible radio transceivers / Conception d’une architecture pour Full-Duplex basée sur les émetteurs-récepteurs radioZhan, Zhaowu 16 December 2014 (has links)
Le medium sans fil est une ressource partagée et limitée. Les normes sans fil actuelles partagent toujours le principe de partage du medium Half-Duplex: la transmission et la réception de signaux sont effectuées dans deux intervalles de temps distincts ou deux bandes de fréquences différentes. En outre, l'émetteur-récepteur ne peut émettre et recevoir qu’un signal à la fois. Cette thèse suit une autre approche: au lieu de partager le support avec le principe de Half-Duplex, toute la bande de fréquence autorisée est partagé pour la transmission et la réception simultanée, approche qui est appelée Full-Duplex. Dès lors, on peut concevoir une architecture d'un émetteur-récepteur radio flexible à large bande pour traiter deux types de signaux différents à la fois. Pour approcher cet objectif, nous utilisons une méthode de suppression active analogique de l’auto-interférence (AARFSIC) et l'annulation active numérique d'auto interférence dans le domaine temporel (ADSICT) pour annuler la forte auto-interférence (SI) induite par le principe Full-Duplex. Basé sur la radio Full-Duplex, nous proposons un système flexible Dual-Band (FDDB) émetteur-récepteur radio OFDM-Full Duplex en la combinant avec un front-end RF double bande. S'appuyant sur ces principes, nous exposons trois contributions principales: Nous présentons une technique d’annulation analogique de l’auto-interférence (ASIC), qui peut annuler complètement l’auto-interférence à trajet direct ou multi-trajets, basée sur la combinaison des méthodes AARFSIC et DSICT. Ensuite, nous présentons la conception et l'évaluation d'une radio OFDM Full-Duplex, y compris l'analyse et la qualification de l'impact du bruit thermique et du bruit de phase sur les performances du système. Enfin, nous développons une radio dual-bande FDDB OFDM qui peut fonctionner sur deux fragments de spectre séparés. Afin d'éliminer l'impact du déséquilibre I/Q sur la radio FDDB, une méthode d’estimation des déséquilibres I/Q et de compensation, simple mais efficace, est présentée. La simulation au niveau système menée avec ADS et Matlab montre que cette méthode peut effectivement compenser des déséquilibres I/Q aussi bien élevés que faibles. / The wireless medium is a shared and limited resource. Current wireless standards always share the medium with Half-Duplex principle: the transmission and reception of signals are done in two separate time slots or two different frequency bands. Besides, the transceiver can only transmit and receive one signal at a time. This dissertation takes an alternate approach: Instead of sharing the medium with Half-Duplex principle, the entire licensed frequency band is shared for simultaneous transmission and reception, which we call Full-Duplex. Besides, the design concept for a wideband flexible radio transceiver can process two different types of signals at a time. To approach this goal, we use an active analog radio frequency self-interference cancellation (AARFSIC) method or a combination scheme of the AARFSIC and active digital self interference cancellation in time domain (ADSICT) to cancel the strong self-interference (SI) induced by the Full-Duplex principle. Based on the Full-Duplex radio, we propose a flexible Full-Duplex Dual-Band (FDDB) OFDM radio transceiver by combining it with a Dual-Band RF front-end. Building on these, we make three main contributions: We present an active self-interference cancellation (ASIC) scheme, which can cancel both the strong one-path and multi-path SI completely, based on the combination of the AARFSIC and DSICT. Next, we introduce the design and evaluation of a Full-Duplex OFDM radio, including the analysis and qualification of the impact of the thermal noise and phase noise on the system performance. Finally, we develop a FDDB OFDM radio that can work on two separate spectrum fragments. In order to eliminate the impact of the I/Q imbalance on the FDDB radio, a simple but practical digital I/Q imbalance estimation and compensation method is presented. The system level simulation conducted with ADS and Matlab software shows that this method can effectively compensate both high and low I/Q imbalance.
|
Page generated in 0.0841 seconds