• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 15
  • Tagged with
  • 114
  • 114
  • 75
  • 68
  • 42
  • 37
  • 37
  • 35
  • 29
  • 24
  • 23
  • 21
  • 21
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Incomplete and uncertain information in relational databases

Zimanyi, Esteban 01 January 1992 (has links)
<p align="justify">In real life it is very often the case that the available knowledge is imperfect in the sense that it represents multiple possible states of the external world, yet it is unknown which state corresponds to the actual situation of the world. Imperfect knowledge can be of two different categories. Knowledge is incomplete if it represents different states, one of which is true in the external world. On the contrary, knowledge is uncertain if it represents different states which may be satisfied or are likely to be true in the external world.</p><p><p align="justify">Imperfect knowledge can be considered under two different perspectives: using either an algebraic or a logical approach. We present both approaches in relation with the standard relational model, providing the necessary background for the subsequent development.</p><p><p align="justify">The study of imperfect knowledge has been an active area of research, in particular in the context of relational databases. However, due to the complexity of manipulating imperfect knowledge, little practical results have been obtained so far. In this thesis we provide a survey of the field of incompleteness and uncertainty in relational databases;it can be used also as an introductory tutorial for understanding the intuitive semantics and the problems encountered when representing and manipulating such imperfect knowledge. The survey concentrates in giving an unifying presentation of the different approaches and results found in the literature, thus providing a state of the art in the field.</p><p><p align="justify">The rest of the thesis studies in detail the manipulation of one type of incomplete knowledge, namely disjunctive information, and one type of uncertain knowledge, namely probabilistic information. We study both types of imperfect knowledge using similar approaches, that is through an algebraic and a logical framework. The relational algebra operators are generalized for disjunctive and probabilistic relations, and we prove the correctness of these generalizations. In addition, disjunctive and probabilistic databases are formalized using appropriate logical theories and we give sound and complete query evaluation algorithms.</p><p><p align="justify">A major implication of these studies is the conviction that viewing incompleteness and uncertainty as different facets of the same problem would allow to achieve a deeper understanding of imperfect knowledge, which is absolutely necessary for building information systems capable of modeling complex real-life situations. </p> / Doctorat en sciences, Spécialisation Informatique / info:eu-repo/semantics/nonPublished
92

Entropic measures of connectivity with an application to intracerebral epileptic signals / Mesures entropiques de connectivité avec application à l'épilepsie

Zhu, Jie 22 June 2016 (has links)
Les travaux présentés dans cette thèse s'inscrivent dans la problématique de la connectivité cérébrale, connectivité tripartite puisqu'elle sous-tend les notions de connectivité structurelle, fonctionnelle et effective. Ces trois types de connectivité que l'on peut considérer à différentes échelles d'espace et de temps sont bien évidemment liés et leur analyse conjointe permet de mieux comprendre comment structures et fonctions cérébrales se contraignent mutuellement. Notre recherche relève plus particulièrement de la connectivité effective qui permet de définir des graphes de connectivité qui renseignent sur les liens causaux, directs ou indirects, unilatéraux ou bilatéraux via des chemins de propagation, représentés par des arcs, entre les nœuds, ces derniers correspondant aux régions cérébrales à l'échelle macroscopique. Identifier les interactions entre les aires cérébrales impliquées dans la génération et la propagation des crises épileptiques à partir d'enregistrements intracérébraux est un enjeu majeur dans la phase pré-chirurgicale et l'objectif principal de notre travail. L'exploration de la connectivité effective suit généralement deux approches, soit une approche basée sur les modèles, soit une approche conduite par les données comme nous l'envisageons dans le cadre de cette thèse où les outils développés relèvent de la théorie de l'information et plus spécifiquement de l'entropie de transfert, la question phare que nous adressons étant celle de la précision des estimateurs de cette grandeur dans le cas des méthodes développées basées sur les plus proches voisins. Les approches que nous proposons qui réduisent le biais au regard d'estimateurs issus de la littérature sont évaluées et comparées sur des signaux simulés de type bruits blancs, processus vectoriels autorégressifs linéaires et non linéaires, ainsi que sur des modèles physiologiques réalistes avant d'être appliquées sur des signaux électroencéphalographiques de profondeur enregistrés sur un patient épileptique et comparées à une approche assez classique basée sur la fonction de transfert dirigée. En simulation, dans les situations présentant des non-linéarités, les résultats obtenus permettent d'apprécier la réduction du biais d'estimation pour des variances comparables vis-à-vis des techniques connues. Si les informations recueillies sur les données réelles sont plus difficiles à analyser, elles montrent certaines cohérences entre les méthodes même si les résultats préliminaires obtenus s'avèrent davantage en accord avec les conclusions des experts cliniciens en appliquant la fonction de transfert dirigée. / The work presented in this thesis deals with brain connectivity, including structural connectivity, functional connectivity and effective connectivity. These three types of connectivities are obviously linked, and their joint analysis can give us a better understanding on how brain structures and functions constrain each other. Our research particularly focuses on effective connectivity that defines connectivity graphs with information on causal links that may be direct or indirect, unidirectional or bidirectional. The main purpose of our work is to identify interactions between different brain areas from intracerebral recordings during the generation and propagation of seizure onsets, a major issue in the pre-surgical phase of epilepsy surgery treatment. Exploring effective connectivity generally follows two kinds of approaches, model-based techniques and data-driven ones. In this work, we address the question of improving the estimation of information-theoretic quantities, mainly mutual information and transfer entropy, based on k-Nearest Neighbors techniques. The proposed approaches we developed are first evaluated and compared with existing estimators on simulated signals including white noise processes, linear and nonlinear vectorial autoregressive processes, as well as realistic physiology-based models. Some of them are then applied on intracerebral electroencephalographic signals recorded on an epileptic patient, and compared with the well-known directed transfer function. The experimental results show that the proposed techniques improve the estimation of information-theoretic quantities for simulated signals, while the analysis is more difficult in real situations. Globally, the different estimators appear coherent and in accordance with the ground truth given by the clinical experts, the directed transfer function leading to interesting performance.
93

Nonlinear acoustic wave propagation in complex media : application to propagation over urban environments / Propagation d'ondes non linéaires en milieu complexe : application à la propagation en environnement urbain

Leissing, Thomas 30 November 2009 (has links)
Dans cette recherche, un modèle de propagation d’ondes de choc sur grandes distances sur un environnement urbain est construit et validé. L’approche consiste à utiliser l’Equation Parabolique Nonlinéaire (NPE) comme base. Ce modèle est ensuite étendu afin de prendre en compte d’autres effets relatifs à la propagation du son en milieu extérieur (surfaces non planes, couches poreuses, etc.). La NPE est résolue en utilisant la méthode des différences finies et donne des résultats en accord avec d’autres méthodes numériques. Ce modèle déterministe est ensuite utilisé comme base pour la construction d’un modèle stochastique de propagation sur environnements urbains. La Théorie de l’Information et le Principe du Maximum d’Entropie permettent la construction d’un modèle probabiliste d’incertitudes intégrant la variabilité du système dans la NPE. Des résultats de référence sont obtenus grâce à une méthode exacte et permettent ainsi de valider les développements théoriques et l’approche utilisée / This research aims at developing and validating a numerical model for the study of blast wave propagation over large distances and over urban environments. The approach consists in using the Nonlinear Parabolic Equation (NPE) model as a basis. The model is then extended to handle various features of sound propagation outdoors (non-flat ground topographies, porous ground layers, etc.). The NPE is solved using the finite-difference method and is proved to be in good agreement with other numerical methods. This deterministic model is then used as a basis for the construction of a stochastic model for sound propagation over urban environments. Information Theory and the Maximum Entropy Principle enable the construction of a probabilistic model of uncertainties, which takes into account the variability of the urban environment within the NPE model. Reference results are obtained with an exact numerical method and allow us to validate the theoretical developments and the approach used
94

Segmentation d'image échographique par minimisation de la complexité stochastique en vue du diagnostic sénologique.

Jaegler, Arnaud 18 January 2011 (has links)
L'objectif de cette thèse est de proposer et d'étudier une méthode de segmentation qui soit adaptée à l'imagerie échographique ultrasonore (US) et qui tienne compte de certaines contraintes rencontrées en milieu clinique. De ce fait, cette méthode se doit d'être robuste au bruit de speckle et à l'atténuation des ondes US dans le milieu, mais aussi rapide et ne nécessiter que peu, voire aucun paramètre à régler par l'opérateur. Dans ce cadre, les solutions fondées sur des contours actifs fondés sur la Minimisation de la Complexité Stochastique ont été étudiées. L'impact de différentes modélisations du speckle sur les résultats de ces techniques de segmentation a été caractérisé. Il a été montré qu'il est important de prendre en compte les variations de l'intensité moyenne du speckle induites par l'atténuation dans chaque région de l'image, à la fois pour la segmentation et pour l'analyse des propriétés du speckle. De plus, une stratégie hiérarchique de segmentation a été développée. Celle-ci permet notamment d'accroître la qualité des segmentations et de diminuer les temps de calcul.Les algorithmes de segmentation considérés étaient initialement conçus pour des formes polygonales peu adaptées à celles rencontrées dans le cadre d'applications médicales. Nous avons donc développé un nouveau modèle de contour fondé sur la théorie de l'information qui permet toujours une mise en oeuvre rapide des algorithmes et ne dépend d'aucun paramètre à régler par l'utilisateur. Testé sur des images synthétiques et réelles de fantômes échographiques, ce nouveau modèle permet de mieux décrire les formes régulières et arrondies des objets rencontrés en imagerie échographique. / The purpose of this PhD thesis is to propose and study a segmentation method adapted to echographic ultrasound imaging that could be clinically operational (i.e. fast and parameter-free) and robust to both the speckle noise and the attenuation of the ultrasonic signal in the medium. The solutions we studied rely on statistical active contour methods that are based on the Minimization of the Stochastic Complexity (MSC). The impact on the segmentation results of several speckle noise models that still lead to fast segmentation algorithms has been characterized. A key feature of these models, that appears to be crucial for both the segmentation and the speckle characterization, is the ability to take into account the spatial variation of the average intensity induced by the attenuation of the signal in the medium. In addition, we proposed a hierarchical optimization strategy that improves segmentation results and decreases the computation time.Finally, a novel contour model that is adapted to smooth boundaries that are met in medical imaging is also proposed for the considered MSC segmentation algorithms. The construction of this contour model relies on Information Theory concepts. It still allows one to get low computation times and does not contain any tuning parameter. Evaluations performed on synthetic images and real echographic phantom images indicate that this contour model provides better segmentation results for smooth inclusions that usually compose the echographic images.
95

Optimization in cognitive radio systems with successive interference cancellation and relaying / Optimisation des systèmes cognitifs avec annulation successive d'interférence et relayage

Chami, Marwa 12 May 2016 (has links)
La Radio Cognitive (CR) est une technique prometteuse pour assurer une utilisation efficace du spectre. Elle permet à un utilisateur non licencié appelé utilisateur secondaire (SU) de coexister avec un utilisateur agréé appelé utilisateur primaire (PU) sans dégrader les performances du dernier. Dans un système de CR, le SU a la capacité de s'adapter à son environnement afin de détecter des trous de fréquences possibles dans le spectre et transmettre dans ces trous sous certaines contraintes de manière à augmenter le débit total. Par ailleurs, l'allocation des ressources dans les systèmes CR forme l'un des scénarios étudiés les plus courantes en particulier pour des transmissions à porteuses multiples.Dans cette thèse, nous étudions le problème d'allocation des ressources pour un système CR à multi-utilisateur pour une transmission de liaison montante. On considère le scénario underlay où le SU est autorisé à coexister avec le PU à condition que l'interférence causé au PU soit inférieure à un seuil prédéfini. Nous appliquons deux techniques de décodage, l'annulation successive d'interférence (SIC) et le codage à superposition (SC), au SU afin de maximiser le débit secondaire.Dans une première étape, le scénario mono-utilisateur est étudié, en supposant que les informations d'état de canal sont connues parfaitement au SU. Nous évaluons la performance du système en proposant un algorithme de décodage adaptatif où le SU peut soit traiter l'interférence venant du primaire comme du bruit, ou bien appliquer le SIC ou SC. Nous étudions le problème d'allocation de puissance en tenant compte du budget de puissance et des contraintes de seuil d'interférence. Une solution générale pour le problème d'optimisation est proposé. L'analyse des simulations et les résultats théoriques montrent que l'algorithme proposé assure une augmentation sur le débit total du système.Ensuite, le scénario multi-utilisateurs secondaires est étudié, où plusieurs utilisateurs sont autorisés à exister dans la cellule secondaire. Les problème d'allocation de puissance et de sous-porteuses sont détaillés dans le but de maximiser le débit. Nous mettons en évidence les avantages de l'algorithme adaptatif dans le cas multi-utilisateur, qui comprend trois phases. La première étape comprend la sélection adaptative de la stratégie de décodage au niveau du récepteur secondaire. La deuxième étape décrit l'attribution de sous-porteuses parmi les différents utilisateurs. Enfin, la troisième étape détaille la répartition optimale du budget de puissance disponible sur les utilisateurs.Cependant, la connaissance parfaite du canal nécessite des mesures de canal parfait au niveau du récepteur et un lien de rétroaction parfaite pour envoyer ces informations à l'émetteur, ce qui peut être impossible à mettre en œuvre. Ainsi, nous étudions aussi le scénario mono-utilisateur en supposant que juste la connaissance statistique des gains de canaux primaires est disponible au SU. Nous détaillons les expressions analytiques pour les probabilités de panne et nous résolvons le problème d'optimisation non-convexe en utilisant un algorithme d'approximation séquentielle. Les simulations montrent que l'algorithme proposé est efficace et robuste.Enfin, nous proposons un nouveau modèle de système où le récepteur secondaire peut agir comme un nœud de relayage Full-Duplex (FD) afin de maximiser le débit primaire. Le scénario proposé est d'abord étudié pour un schéma de modulation à mono-porteuse dans les cas Amplify-and-Forward (AF) et Decode-and-Forward (DF). Les contraintes pour appliquer le SIC et pour le relayage sont déterminés et les nouveaux débits réalisables sont spécifiés de telle sorte que le nœud de relayage relaie si le nouveau débit atteignable est meilleur que celui obtenu sans relayage. En outre, le scénario FD avec DF est étudié avec la modulation multi-porteuse et les performances de ce modèle sont évaluées. Une amélioration importante sur le débit primaire est affiché. / Cognitive Radio (CR) is a promising technique for efficient spectrum utilization. The CR technology permits an unlicensed user called Secondary User (SU) to coexist with the licensed user called Primary User (PU) without degrading his performance. In a CR system, the SU has the ability to sense and adapt to his environment in order to detect possible frequency holes in the wireless spectrum and transmit in it under some constraints so as to increase the total data rate. Besides, resource allocation in CR systems is one of the most common studied scenarios especially for multi-carrier transmissions, with the aim to maximize the system throughput.In this thesis, we investigate the resource allocation problem for an uplink multi-user underlay CR system where the SU is allowed to coexist with the PU provided that the interference caused to the PU is below a predefined threshold. We apply two decoding techniques, Successive Interference Cancellation (SIC) and Superposition Coding (SC), at the SU in order to maximize the secondary rate. In a first step, the single-user scenario is studied, assuming perfect channel state information (CSI) at the SU. We evaluate the performance of the system by proposing an adaptive decoding algorithm where the SU can either treat the interference as noise or perform SIC or SC. We investigate the power allocation problem taking into account the power budget and the interference threshold constraints. A general solution for the power optimization problem in an uplink underlay CR system is proposed. Both theoretical analysis and simulation results show that the proposed algorithm achieves higher sum rate than classical algorithms, providing high-enough data rates for the secondary system at the expense of a very low degradation of the primary system's rate.Then, the secondary multi-user scenario is investigated, where multiple users are allowed to exist in the secondary cell. Power and subcarrier allocation problems are detailed in order to maximize the secondary rate. We highlight the benefits of the proposed multi-user adaptive algorithm which encompasses three phases. The first step includes the adaptive selection of the decoding strategy at the secondary receiver. The second step describes the subcarrier allocation among the different users. Finally, the third step details the optimal distribution of the available power budget on the users.However, perfect channel knowledge requires perfect channel measurements at the receiver and a perfect feedback link to send this channel information to the transmitter, which may be impractical to implement. Thus, we also study the single-user scenario assuming that only statistical CSI of channel gains between the primary transmitter and both primary and secondary receivers is available at the SU. We detail the analytical expressions for the outage probabilities and then we solve the non-convex optimization problem using a sequential approximation algorithm. simulations show that the proposed algorithm is efficient and robust with statistical CSI. This work can be easily extended to the multi-user case.Finally, we propose a new system model where the secondary receiver acts as a Full-Duplex (FD) relay node in order to maximize the primary rate and thus the total system rate. The proposed scenario is first studied for single-carrier modulation scheme for both Amplify-and-Forward (AF) and Decode-and-Forward (DF) relaying protocols. The constraints to apply SIC and to relay are determined and the new achievable rates are specified such that the relay node relays whenever the new achievable rate is better than the one achieved without relying. Furthermore, the performance of the DF relaying scheme in the FD mode is evaluated for multi-carrier modulation. The performance of the proposed system model is evaluated via simulations and an important improvement of the primary achievable rate and thus of the total system rate is shown.
96

Étude des algorithmes d'approximation de fonctions de croyance généralisées

Djiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
97

Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiers

Ghazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
98

Approche informée pour l'analyse du son et de la musique

Fourer, Dominique 11 December 2013 (has links) (PDF)
En traitement du signal audio, l'analyse est une étape essentielle permettant de comprendre et d'interagir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s'avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d'analyse usuels tels que l'analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite "informée". Cette nouvelle approche exploite la configuration des studios de musique actuels qui maîtrisent la chaîne de traitement avant l'étape de création du mélange. Dans les solutions proposées, de l'information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu'une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l'intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d'un estimateur avec de l'information complémentaire permet d'améliorer les performances des approches usuelles telles que l'estimation non informée ou le codage pur.
99

Coopération et Compétition dans les Réseaux sans Fils

Lasaulce, Samson 07 October 2010 (has links) (PDF)
Le premier chapitre de ce manuscrit correspond au CV long de l'auteur (établi en mai 2010). Le second chapitre décrit ses contributions scientifiques pour les réseaux sans fils équipés de terminaux multi-dimensionnels. Le troisième chapitre est dédié aux contributions de l'auteur aux réseaux sans fils équipés de terminaux-relais. Le quatrième chapitre correspond lui aux réseaux sans fils équipés de terminaux autonomes décisionnellement (réseaux sans fils distribués). Le manuscrit est conclu par les perspectives de l'auteur.
100

Systèmes hertziens à forte efficacité spectrale pour les communications mobiles multi-antennes et multi-porteuses de 4° génération

Portier, Fabrice 11 July 2007 (has links) (PDF)
Les travaux présentés dans cette thèse proposent des solutions à forte efficacité spectrale pour les communications mobiles multi-antennes et multiporteuses, particulièrement optimisées pour la voie descendante des systèmes hertziens. Cette étude s'inscrit dans un contexte fortement concurrentiel pour l'accès de masse au haut-débit sans fil, et contribue à l'effort collectivement mené au sein des projets européens sur les systèmes dits de 4e génération (4G). La première partie du document cadre l'étude en identifiant les contraintes physiques, technologiques et financières, ainsi que les exigences des systèmes 4G en termes de services, débit et mobilité. En particulier, une complexité raisonnable au récepteur mobile est requise en voie descendante pour honorer coût et consommation. Dans un souci de réalisme, le canal de propagation radio-mobile large-bande MIMO est caractérisé. Les corrélations en temps/fréquence/espace induisent le dimensionnement du système de communication numérique proposé. La deuxième partie du document est consacrée à l'étude des systèmes multi-porteuses, multi-utilisateurs, et multi-antennes, afin d'unifier l'approche et d'explorer plusieurs axes en utilisant au mieux les propriétés du canal. Tout d'abord, le choix de l'accès large-bande multi-utilisateurs s'est porté sur la combinaison de l'OFDM et d'étalement en accès multiple CDMA, afin de discuter du compromis diversité/orthogonalité suivant les algorithmes de chip-mapping et de détection employés. Ensuite, pour exploiter les gains de réseau d'antennes, diversité et multiplexage offerts par le canal MIMO en fonction du contexte, un état de l'art des techniques multi-antennes est dressé. La classification proposée permet d'établir une stratégie tout en conservant une faible complexité de détection. Nous détaillons les systèmes les plus réalistes en contexte mobile et en voie descendante, n'ayant pas connaissance du canal en émission. La chaîne de communication MIMO-OFDM-CDMA complète est finalement présentée en insistant sur la flexibilité des algorithmes linéaires adoptés. La troisième partie du document s'attache à optimiser les combinaisons précédentes en contexte réaliste, et propose des techniques de codage et d'estimation temps/fréquence/espace innovantes. Tout d'abord, une approche pragmatique amène à considérer des solutions exploitant la diversité qui assurent robustesse, détection simple et compatibilité avec l'ensemble des terminaux. Nous privilégions un codage spatial de rendement unitaire, et proposons d'agir sur les trajets multiples grâce aux antennes supplémentaires. Des axes d'optimisation sont fournis au niveau codage, chip-mapping, détection et propagation de fiabilités. Comparé aux méthodes OSTBC ou CDD, des gains sont illustrés en performance, répartition de puissance, potentiel d'adaptabilité et de robustesse... Ensuite, en relâchant légèrement les contraintes de complexité et d'orthogonalité spatiale, nous proposons de nouvelles solutions en contexte plus favorable. Même avec une simple détection linéaire MMSE, ces techniques offrent un potentiel supérieur en haut-débit mobile dès que le nombre d'antennes augmente. Enfin, nous introduisons des méthodes d'estimation du canal MIMO adaptées aux systèmes précédents, utilisant des symboles pilotes répartis et éventuellement les données décodées de manière itérative afin de répondre à un ensemble de compromis sur des récepteurs variés. Les nombreux résultats obtenus démontrent la pertinence des solutions développées.

Page generated in 0.1271 seconds