Spelling suggestions: "subject:"télécommunications"" "subject:"élécommunications""
371 |
Stratégies de coopération dans les réseaux radio cognitif / Cooperation strategies in radio cognitive networksKouassi, Boris Rodrigue 25 October 2013 (has links)
Les réseaux radio actuelles utilisent le spectre inefficacement, car une bande de fréquence est allouée de façon permanente à une technologie spécifique. Vu que le spectre est une ressource limitée, cette attribution statique ne pourra bientôt plus combler les besoins des systèmes de transmission qui ne cessent de croître. On peut toutefois optimiser l'utilisation du spectre en permettant des transmissions secondaires (SU) dans les espaces libres du primaire (PU). Cette vision constitue l'objectif principal de la radio cognitive. Nous proposons d'évaluer les stratégies de transmission pour la coexistence des systèmes primaires (PU) et SU dans les mêmes réseaux. Plus concrètement, nous nous focalisons sur un scénario spatial interweave en émettant les signaux SU dans les espaces vides du PU à l'aide d'un précodeur linéaire. Néanmoins, ce précodage nécessite une connaissance a priori des canaux interférents. L'échange d'informations entre le PU et le SU étant proscrit, nous exploitons l'hypothèse de la réciprocité du canal. Cette hypothèse compense l'absence de coopération, mais elle n'est pas si évidente à exploiter en pratique à cause des perturbations des circuits radio fréquence. Nous suggérons de compenser ces perturbations par des méthodes de calibration relative. Nous proposons ensuite une implémentation temps-réel des solutions sur une plateforme LTE. Pour finir, nous généralisons l'approche RC à un système de transmission multi-utilisateurs, à travers une combinaison des techniques RC et massive MIMO, cette approche constitue s’établit comme une solution à la progression exponentielle du trafic. / The accelerated evolution of wireless transmission in recent years has dramatically increased the spectrum overcrowding. Indeed, the spectrum is inefficiently used in the conventional networks, since a frequency band is statically allocated to a specific technology called primary (PU). Whereas the radio spectrum is limited, this static frequency allocation will no longer be able to meet the increasing needs of bandwidth. However, the spectrum can be optimally used in enabling secondary (SU) transmissions, provided the latters do not harm the PU. This opportunistic vision of wireless transmissions is the main aim of Cognitive Radio (CR). CR enables smart use of wireless resources and is a key ingredient to perform high spectral efficiency. We focus on a spatial interweave (SIW) CR scenario which exploits the spatial white spaces to enable SU transmissions. The latter forms spatial beams using precoders, so that there is no interference towards the primary. Nevertheless, this precoding requires acquisition of the crosslink channel. However, due to the lack of cooperation between PU and SU, we acquire the channel thanks to channel reciprocity. Furthermore, the practical use of the reciprocity is not as straightforward as in theory, because it is is jeopardized by the nonreciprocal radio frequency front-ends. These perturbations are compensated in our study by relative calibration algorithms. Subsequently, we propose an implementation of our solutions in a real-time LTE platform. Eventually, we extend the CR model to a MU system in suggesting a combination of SIW and massive MIMO techniques. This scheme is an interesting candidate to overcome the exponential traffic growth.
|
372 |
Théorie de l’information, jeux répétés avec observation imparfaite et réseaux de communication décentralisés / Information theory, repeated games with imperfect monitoring and decentralized communications networksLe Treust, Maël 06 December 2011 (has links)
Cette thèse est consacrée à l’étude des interactions entre la théorie des jeux et la théorie de l’information, ainsi qu’à leurs applications aux réseaux de communication décentralisés. D’une part, la théorie des jeux apporte des réponses aux problèmes d’optimisation dans lesquels des agents interagissent. Dans un jeu, les joueurs choisissent des actions et obtiennent des gains appelés utilités. Les hypothèses sur l’information que possèdent les joueurs avant de jouer sont fondamentales pour déterminer l’issue d’un jeu, aussi appelée équilibre. Lorsque le même jeu est répété d’étape en étape et que les joueurs n’observent pas les actions passées parfaitement,alors les utilités d’équilibre ne sont pas connues. D’autre part, la théorie de l’information étudie les performances d’un système communicant. De nos jours, les réseaux de communication sont tellement denses qu’ils ne peuvent plus s’organiser autour d’un unique opérateur central. La théorie des jeux est appropriée pour étudier de nouvelles organisations du traitement de l’information dans lesquelles les décisions sont prises localement. Dans un premier temps, au chapitre3, nous étudions le jeu du contrôle de puissance efficace du point de vue énergétique, grâce aux résultats existants pour les jeux répétés. Les émetteurs sont considérés comme des joueurs et choisissent la puissance d’émission du signal, considérée comme leur action. L’objectif d’un joueur est de choisir une puissance optimale pour la qualité de sa propre communication. Même si les joueurs n’observent pas les actions passées de manière parfaite, nous montrons que l’observation du "ratio signal sur interférence plus bruit" est suffisante pour garantir des résultats d’équilibre optimaux pour le réseau de communication. Dans un second temps, nous utilisons les outils de la théorie de l’information pour approfondir l’étude de la circulation de l’information parmi les joueurs. Dans le chapitre 4, un encodeur envoie un signal supplémentaire aux joueurs afin qu’ils observent parfaitement les actions jouées à l’étape précédente. L’observation des joueurs devient suffisamment précise pour nous permettre de retrouver l’ensemble des utilités d’équilibre du jeu répété. Ces résultats sont à leur tour exploités afin de modéliser des réseaux de communication plus réalistes et d’y apporter des solutions nouvelles. Dans le chapitre5, nous approfondissons l’étude des utilités d’équilibre lorsque les joueurs observent les actions passées à travers un canal d’observation arbitraire. Nous démontrons un résultat d’atteignabilité pour un canal multi-utilisateurs avec états qui comporte un encodeur, deux récepteurs légitimes et un espion. Ce résultat nous permet d’étudier les corrélations entre les suites d’actions qu’un groupe de joueurs peut mettre en oeuvre à l’insu d’un joueur opposant. L’étude des canaux multiutilisateurs est un pas en avant vers la caractérisation des utilités d’équilibre dans un jeu répété avec observation imparfaite. / This thesis is devoted to the study of mutual contributions between games theory and informationtheory and their applications to decentralized communication networks. First, game theoryprovides answers to optimization problems in which agents interact. In a game, players chooseactions and obtains gains called utilities. Assumptions about the information possessed by playersbefore play is fundamental to determine the outcome a game, also called equilibrium. When thesame game is repeated from stage to stage and the players do not observe the past actions perfectly,then the equilibrium utilities are not known. On the other hand, information theory studiesthe performance of a communicating system. Nowadays, communication networks are so densethat they can not organize around a single central operator. Game theory is appropriate to explorenew organizations of communication networks in which decisions are taken locally. At first,in Chapter 3, we study the game of power control in terms of energy efficiency, thanks to theexisting results for repeated games. Transmitters are regarded as players and choose the transmissionpower of the signal, considered as their action. The objective of a player is to choose anoptimal power for the quality of its own communication. The players do not observe the pastactions perfectly, but we show that the observation of the "signal over interference plus noiseratio" is sufficient to ensure optimal equilibrium results for the communication network. In a secondstep, we use the tools of the information theory for further study of the flow of informationamong the players. In Chapter 4, an encoder sends an extra signal to the players so that theyperfectly observe the actions chosen in the previous stage-game. The observation of players issufficiently precise to characterize the set of equilibrium utilities of the repeated game. Theseresults are, in turn, used to model new communication networks and to provide more realisticsolutions. In Chapter 5, we deepen the study of equilibrium utilities when players observe thepast actions to through an arbitrary observation channel. We show a rate region is achievablefor the multi-user channel with states which includes an encoder, two legitimate receivers andan eavesdropper. This result allows us to study the correlations over the sequences of actions agroup of players can implement while keeping it secret from an opponent player. The study ofmulti-user channels is a step towards the characterization of equilibrium utilities in a repeatedgame with imperfect monitoring.
|
373 |
Génération de paires de photons corrélés par mélange à quatre ondes spontané dans des fibres microstructurées à coeur liquide / Generation of correlated photon pairs by spontaneous four-wave mixing in liquid-filled hollow-core photonic crystal fibresBarbier, Margaux 13 November 2014 (has links)
Une technique couramment employée pour développer les sources de paires de photons corrélés indispensables au domaine des télécommunications quantiques repose sur le processus non linéaire de mélange à quatre ondes, qui peut avoir lieu directement dans le cœur d’une fibre optique. Cette architecture fibrée permet de s’adapter au mieux aux besoins des réseaux de communications quantiques (en particulier en minimisant les pertes par couplage lors de la connexion de la source aux autres composants du réseau). L’utilisation d’une fibre microstructurée plutôt que d’une fibre de silice conventionnelle permet d’ajuster les propriétés de dispersion de la fibre et d’optimiser l’efficacité du processus non linéaire. Cependant, les sources fibrées usuelles, à cœur de silice, présentent une limitation majeure : leur pureté quantique est fortement dégradée par la diffusion Raman spontanée, qui survient elle aussi dans le cœur en silice de la fibre. Pour s’affranchir de ce problème, notre idée est de remplacer le cœur en silice par un cœur liquide, en utilisant une fibre microstructurée à cœur creux rempli d’un liquide non linéaire. Nos recherches nous ont ainsi conduits à faire la première démonstration expérimentale de génération de paires de photons corrélés dans une fibre à cœur liquide, et à montrer que, grâce aux propriétés Raman particulières des liquides (dont le spectre Raman se présente en général sous la forme de raies très fines), il était possible de réduire de plusieurs ordres de grandeur le niveau de diffusion Raman spontanée dans la source. Ce travail ouvre donc la voie au développement de sources de paires de photons corrélés fibrées de très haute qualité quantique. / Quantum telecommunication technologies rely on correlated photon pair sources, which are often based on the third-order nonlinear process of spontaneous four-wave mixing in silica-core photonic crystal fibres. A fibred architecture is advantageous because it minimizes the coupling losses between the optical source and the other components of quantum communication networks. Moreover, using a photonic crystal fibre rather than a conventional silica fibre offers the possibility of improving the photon generation (thanks to a small effective core area) and extending the wavelength coverage (thanks to dispersion management through the microstructuration design). However, the performances of silica-core photonic crystal fibre sources are limited in terms of quantum purity, because of the ubiquitous spontaneous Raman scattering process, which is a source of uncorrelated broadband noise photons in silica. We propose an original solution to this Raman problem by replacing the silica core by a liquid core, thanks to a hollow-core photonic crystal fibre filled with a nonlinear liquid. We actually performed the first experimental demonstration of the generation of correlated photon pairs in a liquid-core fibre, and demonstrated that, thanks to the specific Raman properties of liquids (which usually exhibit thin-line Raman spectra), it is possible to reduce the Raman noise level by several orders of magnitude. This work opens the way for the development of high quantum quality correlated photon pair fibred sources.
|
374 |
Ultra narrow band based IoT networks / Réseaux IoT à bande ultra étroiteMo, Yuqi 26 September 2018 (has links)
La compagnie Sigfox est reconnue comme un acteur prometteur pour des transmissions de longue-distance et faible consommation, dans le contexte de l'IoT. La modulation à bande ultra étroite (Ultra Narrow Band (UNB)), la technologie de communication choisie par Sigfox, permet de transmettre des informations dans des bandes de signal très étroites (typiquement 100 Hz). A cause de l'imprécision fréquentielle causée par les oscillateurs générateurs de fréquence, il n'est pas réaliste de transmettre des signaux UNB dans des canaux parfaitement orthogonaux. L'accès naturel au canal radio pour le système de UNB est de type ALOHA, avec un aspect aléatoire à la fois en en temps et en fréquence. Cet accès aléatoire peut introduire des collisions qui dégradent la performance du réseau. Le but de cette thèse est de caractériser la capacité des réseaux basés sur UNB, ainsi que d’améliorer la performance en considérant l'aspect aléatoire en temps et en fréquence. La première contribution de cette thèse, est une évaluation de la capacité en théorie et en simulation pour une seule station de base (BS), sous des conditions de canal idéaliste ou réaliste. En conditions idéalistes, nous avons exprimé la capacité pour le cas de l'ALOHA généralisé, et l'avons étendu aux cas de réplications. Pour les conditions réalistes, nous avons pris en compte l'interférence spectrale d'UNB et le path loss (sans et avec Rayleigh fading) afin de caractériser la performance des réseaux UNB, avec l'outil géométrie stochastique. La deuxième contribution est d'appliquer l’annulation successive d'interférence (SIC), qui nous permet d'atténuer les interférences, dans des réseaux de UNB. Nous avons fourni une analyse théorique de la performance des réseaux en considérant le SIC et l'interférence spectrale de UNB, pour le cas de mono-BS. La troisième contribution est l'amélioration de la performance des réseaux UNB, en exploitant la diversité de multi-BS. Nous avons fait une analyse théorique de performance en considérant multi-BS et selection combining (SC). En particulier, nous avons considéré que l’interférence vue par chaque BS est corrélée. Nous avons ainsi démontré mathématiquement que cette corrélation ne peut pas être supprimée dans des systèmes UNB. Ensuite, nous avons appliqué les technologies de la combinaison des signaux plus complexes comme MRC (max ratio combining) et EGC (equal gain combining), ainsi que le SIC à travers multi-BS. Nous avons évalué l'amélioration de performance que chaque technologie apporte, et les avons comparées. Nous avons souligné l'efficacité de ces technologies qui nous permettent d’obtenir des gains importants comparés au cas mono-BS (e.x. 125 fois plus de réduction d'erreur avec SIC globale). La dernière contribution est une validation expérimentale du modèle d'interférence spectrale de UNB, ainsi que la capacité des réseaux UNB, sur un testbed de radio FIT/Cortexlab. / Sigfox rises as a promising candidate dedicated for long-distance and low-power transmissions in the IoT backgrounds. Ultra Narrow Band (UNB), being the communication technology chosen by Sigfox, allows to transmit information through signals whose bandwidth is very limited, typically 100 Hz. Due to the imprecision restraint on electronic devices, it is impossible to transmit UNB signals in orthogonal channels. The natural radio access for this kind of system is thus random ALOHA, in both time and frequency domain. This random access can induce collisions which degrades the networks performance. The aim of this thesis is to characterize the capacity of UNB based networks, as well as to enhance its performance, by considering the randomness in time and frequency. The first contribution of the thesis, is the theoretical and numerical capacity evaluation under idealized and realistic channel conditions, for mono base station (BS) case. Under idealized conditions, we have quantified this capacity for generalized ALOHA case and extended for replications. We highlight the time-frequency duality in UNB systems, and that there exists an optimum replication number for a given network parameter set. Under realistic conditions, we have taken into account the specific spectral interference of UNB systems and propagation path loss (without and with Rayleigh fading) to characterize the performance, with the aid of stochastic geometry. The second contribution is the enhancement of UNB network performance in single BS case. We propose to use successive interference cancellation (SIC) in UNB networks, which allows to mitigate the interference. We have provided a theoretical analysis by considering both SIC and the spectral interference, for mono-BS case. We bring to light the efficiency of SIC in enhancing UNB system performance. The third contribution is the improvement of UNB systems, by exploiting the multiple BS diversity. An analytical performance evaluation considering the simplest selection combining is conducted. In particular, we consider the interference viewed by all the BSs are correlated. Then we apply more complex signal combining technologies such as MRC (max ratio combining) and EGC (equal gain combining), and even interference cancellation across multi-BS in UNB networks. We evaluate the performance improvement that each technology can bring, and compare them with each other. We highlight the efficiency of these multi-BS technologies which allow us to achieve significant performance enhancement compared to mono-BS (e.x. 125 times better performance with global SIC). Last but not least, we experimentally verify the the spectral interference model and network capacity on a cognitive radio testbed.
|
375 |
Quantum dash based photonic integrated circuits for optical telecommunications / Circuits intégrés photoniques à base de boîtes quantiques pour télécommunications optiquesJoshi, Siddharth 05 November 2014 (has links)
Ce travail de thèse présente une étude sur les propriétés de nanostructures de type bâtonnets quantiques et de leur application pour les télécommunications optiques. Durant la dernière décennie, ces nanostructures, ont démontré des propriétés optiques et électroniques intéressantes en raison notamment d’un fort confinement quantique dans les trois dimensions d'espace. Cette thèse porte sur la conception et la fabrication d'émetteurs optiques intégrés à base de ce matériau et de leur implémentation dans des systèmes de communication. La première partie de ce travail analyse les propriétés de ces nanostructures, théorique et expérimentale. Elles sont utilisées comme matériau actif de lasers modulés directement en amplitude. Les propriétés dynamiques de ces lasers sont ensuite évaluées et des transmissions sur fibre optique entre 0 et 100 km sont ensuite démontrées en utilisant un filtre étalon permettant d’augmenter en particulier le taux d’extinction dynamique. En s’appuyant sur cette démonstration basée sur des éléments discrets, une version monolithique intégrant un laser et un résonateur en anneaux a été réalisée. La dernière partie de ce travail porte sur des lasers à blocage de mode à base de ce matériau et en particulier sur les méthodes d’intégration sur substrat InP. En particulier, un design de miroir de Bragg innovant a été développé à cet effet et une démonstration d'un laser a blocage de mode intégré avec un amplificateur optique à semi-conducteur a finalement été réalisée / This PhD dissertation presents a study on the properties of the novel quantum dash nanostructures and their properties for application in optical telecommunications. Over the last decade, scientific community has gained considerable interest over these nanostructures and several demonstrations have been made on their interesting optical and electronic properties, notably owing to their strong quantum confinement. This dissertation focuses on conception, fabrication and system demonstration of integrated optical transmitters based on quantum dash material. A first part of this work analyses the properties of qdashes theoretically and experimentally for their use as an active material in directly modulated lasers. The dynamic properties of this material are then evaluated leading to an optical transmission distances in range of 0-100km under direct modulation. The transmission is particularly studied with a passive optical filter to enhance the dynamic extinction ratio, the use of such passive filters is studied in detail. An innovative and fully integrated optical transmitter is finally demonstrated by integrating a ring-resonator filter to a distributed feedback laser. The second part of this work focuses on mode locked lasers based on this material and in particular the methods of integration of such devices on InP are explored. Thus an innovative Bragg mirror design is developed leading to a mode locked laser integrated with a semiconductor optical amplifier
|
376 |
Méthodologie de compilation d'algorithmes de traitement du signal pour les processeurs en virgule fixe sous contrainte de précisionMénard, Daniel 12 December 2002 (has links) (PDF)
L'implantation efficace des algorithmes de traitement numérique du signal (TNS) dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire les contraintes de coût, de consommation et d'encombrement exigées par ces applications. Le codage manuel des données en virgule fixe est une tâche fastidieuse et source d'erreurs. De plus, la réduction du temps de mise sur le marché des applications exige l'utilisation d'outils de développement de haut niveau, permettant d'automatiser certaines tâches. Ainsi, le développement de méthodologies de codage automatique des données en virgule fixe est nécessaire. Dans le cadre des processeurs programmables de traitement du signal, la méthodologie doit déterminer le codage optimal, permettant de maximiser la précision et de minimiser le temps d'exécution et la taille du code. L'objectif de ce travail de recherche est de définir une nouvelle méthodologie de compilation d'algorithmes spécifiés en virgule flottante au sein d'architectures programmables en virgule fixe sous contrainte de respect des critères de qualité associés à l'application. Ce travail de recherche s'articule autour de trois points principaux. Le premier aspect de notre travail a consisté à définir la structure de la méthodologie. L'analyse de l'influence de l'architecture sur la précision des calculs montre la nécessité de tenir compte de l'architecture cible pour obtenir une implantation optimisée d'un point de vue du temps d'exécution et de la précision. De plus, l'étude de l'interaction entre les phases de compilation et de codage des données permet de définir le couplage nécessaire entre les phases de conversion en virgule fixe et le processus de génération de code. Le second aspect de ce travail de recherche concerne l'évaluation de la précision au sein d'un système en virgule fixe à travers la détermination du Rapport Signal à Bruit de Quantification (RSBQ). Une méthodologie permettant de déterminer automatiquement l'expression analytique du RSBQ en fonction du format des données en virgule fixe est proposée. Dans un premier temps, un nouveau modèle de bruit est présenté. Ensuite, les concepts théoriques pour déterminer la puissance du bruit de quantification en sortie des systèmes linéaires et des systèmes non-linéaires et non-récursifs sont détaillés. Finalement, la méthodologie mise en oeuvre pour obtenir automatiquement l'expression du RSBQ dans le cadre des systèmes linéaires est exposée. Le troisième aspect de ce travail de recherche correspond à la mise en oeuvre de la méthodologie de codage des données en virgule fixe. Dans un premier temps, la dynamique des données est déterminée à l'aide d'une approche analytique combinant deux techniques différentes. Ces informations sur la dynamique permettent de déterminer la position de la virgule de chaque donnée en tenant compte de la présence éventuelle de bits de garde au sein de l'architecture. Pour obtenir un format des données en virgule fixe complet, la largeur de chaque donnée est déterminée en prenant en compte l'ensemble des types des données manipulées au sein du DSP. La méthode sélectionne la séquence d'instructions permettant de fournir une précision suffisante en sortie de l'algorithme et de minimiser le temps d'exécution du code. La dernière phase du processus de codage correspond à l'optimisation du format des données en vue d'obtenir une implantation plus efficace. Les différentes opérations de recadrage sont déplacées afin de minimiser le temps d'exécution global tant que la précision en sortie de l'algorithme est supérieure à la contrainte. Deux types de méthode ont été mis en {\oe}uvre en fonction des capacités de parallélisme au niveau instruction de l'architecture ciblée. Cette méthodologie a été testée sur différents algorithmes de traitement numérique du signal présents au sein des systèmes de radio-communications de troisième génération. Les résultats obtenus montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
|
377 |
Distribution et Stockage de Contenus dans les RéseauxModrzejewski, Remigiusz 24 October 2013 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes dont l'objectif est de gérer la croissance d'internet plus efficacement. En effet celle-ci est très vive : 41% pour le pic en 2012. Afin de répondre aux défis posés par cette évolution aux divers acteurs du réseau, des protocoles de gestion et de communication plus intelligents sont nécessaires. Les protocoles de l'Internet furent conçus comme des protocoles point à point. Or, la part de la diffusion de média dans le trafic est prépondérante et en nette hausse, et des projections indiquent qu'en 2016 80-90% du trafic sera engendré par de la diffusion vidéo. Cette divergence entraîne des inefficacités, car des multiples copies d'un message transitent par un lien. Dans cette thèse, nous étudions comment remediér á cette inefficacité. Nos contributions sont organisées selon les couches et les phases de déploiement du réseau. Nous étudions le placement de caches lors de la conception du réseau. Ensuite, pour la gestion d'un réseau, nous regardons quand placer des appareils en veille, en utilisant un mécanisme de cache et en coopération avec des réseaux de distribution. Puis, au niveau de la couche application, nous étudions un problème de maintenance d'arbres équilibrés pour la diffusion de média. Enfin, nous analysons la probabilité de survie des données dans un système de sauvegarde distribuée. Notre travail se fonde à la fois sur des méthodes théoriques (Chaînes de Markov, Programmation Linéaire), mais aussi sur des outils empiriques tels que la simulation et l'expérimentation.
|
378 |
Sur des modèles pour l'évaluation de performance des caches dans un réseau cœur et de la consommation d'énergie dans un réseau d'accès sans-filChoungmo Fofack, Nicaise Éric 21 February 2014 (has links) (PDF)
Internet est un véritable écosystème. Il se développe, évolue et s'adapte aux besoins des utilisateurs en termes de communication, de connectivité et d'ubiquité. Dans la dernière décennie, les modèles de communication ont changé passant des interactions machine-à-machine à un modèle machine-à-contenu. Cependant, différentes technologies sans-fil et de réseaux (tels que les smartphones et les réseaux 3/4G, streaming en ligne des médias, les réseaux sociaux, réseaux-orientés contenus) sont apparues pour améliorer la distribution de l'information. Ce développement a mis en lumière les problèmes liés au passage à l'échelle et à l'efficacité énergétique; d'où la question: Comment concevoir ou optimiser de tels systèmes distribués qui garantissent un accès haut débit aux contenus tout en (i) réduisant la congestion et la consommation d'énergie dans le réseau et (ii) s'adaptant à la demande des utilisateurs dans un contexte connectivité quasi-permanente? Dans cette thèse, nous nous intéressons à deux solutions proposées pour répondre à cette question: le déploiement des réseaux de caches et l'implantation des protocoles économes en énergie. Précisément, nous proposons des modèles analytiques pour la conception de ces réseaux de stockage et la modélisation de la consommation d'énergie dans les réseaux d'accès sans fil. Nos études montrent que la prédiction de la performance des réseaux de caches réels peut être faite avec des erreurs relatives absolues de l'ordre de 1% à 5% et qu'une proportion importante soit 70% à 90% du coût de l'énergie dans les cellules peut être économisée au niveau des stations de base et des mobiles sous des conditions réelles de trafic.
|
379 |
Équilibrage de charge et répartition de ressources dans les grands systèmes distribuésLeconte, Mathieu 18 December 2013 (has links) (PDF)
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
|
380 |
Techniques adaptatives pour la gestion de l'énergie dans les réseaux capteurs sans filAlam, Muhammad Mahtab 26 February 2013 (has links) (PDF)
De plus en plus d'objets électroniques nomades incorporent à la fois des capacités de traitement, de contrôle et un ou plusieurs émetteur-récepteur radios. Les objets, lorsqu'ils communiquent entre eux, forment des réseaux de capteurs sans l (WSN). Leur point commun est qu'ils doivent fonctionner aussi longtemps que possible sans avoir à remplacer ou recharger les batteries. Par conséquent, la consommation d'énergie est la principale contrainte à prendre en considération dans l'élaboration de ces articles. Les recherches sur l'optimisation de l'énergie sont nombreuses, et sont appliquées à tous les niveaux de la conception. Dans cette thèse, nous proposons des techniques d'optimisation au niveau algorithmique visant une réduction de l'énergie consommée. Dans ce contexte, tout d'abord, nous avons proposé un modèle énergétique hybride pragmatique et précis pour les WSN. Ce modèle prend en compte les différents scénarios qui se produisent pendant la communication et évalue leur consommation d'énergie en distinguant composantes logicielles et matérielles. Le modèle présenté est une combinaison d'approche analytique et de mesures en temps réel. La validation du modèle montre que l'erreur relative est de 1 à 8 pour cent. Dans la deuxième partie de la thèse nous nous sommes concentrés sur le contrôle d'accès au medium (MAC). La couche MAC joue un rôle essentiel dans la gestion de l'énergie dans les réseaux de capteurs, car l'activité de l'émetteur-récepteur radio (composante la plus gourmande en énergie) est contrôlée par la couche MAC. Par ailleurs, l'état d'écoute " idle " se trouve être l'état dans lequel s'opère un gaspillage énorme d'énergie dans la plupart des protocoles MAC. À ce sujet, nous proposons un nouveau protocole MAC dynamique (TAD-MAC) efficace en énergie avec une connaissance à priori du trafic courant. Le protocole repose sur l'adaptation dynamique des intervalles de réveil basée sur une estimation du trafic. Une approche heuristique est utilisée pour modéliser le système en caractérisant chacun des paramètres de l'algorithme adaptatif. Une analyse détaillée de la convergence et des métriques de performance pour atteindre un état d'équilibre est présentée et évaluée. En outre, TAD-MAC est appliqué dans le contexte des réseaux corporels de capteurs sans fil pour des taux de trafics fixes et variables. TAD-MAC surpasse les autres protocoles MAC à faible consommation énergétique en termes de latence ainsi que de consommation d'énergie et donc permet d'augmenter la durée de vie de trois à six fois. Dans la dernière partie de la thèse une technique adaptative d'optimisation de la puissance d'émission est appliquée avec une variation dynamique des canaux de transmission afi n de réduire l'énergie par bit transmis avec succès au niveau de la couche physique. La puissance d'émission est réglée de manière adaptative sur un critère de type " link-to-link" . Chaque nœud adapte localement sa puissance en fonction des variations du rapport signal-sur-bruit (SNR) (pour tous les nœuds voisins). Différents profils d'émetteurs-récepteurs radio sont utilisés pour montrer le gain par rapport à l'utilisation d'une puissance d'émission fixe. Il se trouve que par l'adaptation dynamique de la puissance d'émission, la consommation d'énergie peut être réduite d'un facteur 2.
|
Page generated in 0.0776 seconds