Spelling suggestions: "subject:"1nternet architecture"" "subject:"centernet architecture""
51 |
Problèmes d'allocation de ressources dans les réseaux MIMO sans fil distribuésBelmega, Elena Veronica 14 December 2010 (has links) (PDF)
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées: des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique.
|
52 |
Quelques contributions dans les réseaux de capteurs sans fil : Localisation et RoutageSaad, Clément 10 July 2008 (has links) (PDF)
Comme le firent Internet et les communications sans fil il y a de cela quelques décennies, l'avènement des réseaux de capteurs s'apprête à révolutionner notre mode de vie. Mais avant de voir ces réseaux atteindre un degré de démocratisation identique à celui des téléphones portables par exemple, un certain nombre de problématiques doit être résolu. Aux contraintes traditionnelles des réseaux ad hoc s'ajoutent les limites très strictes liées aux caractéristiques matérielles des capteurs telles que la puissance de calcul, la mémoire et surtout l'alimentation en énergie, rendant les algorithmes existants inadaptés. Cette thèse aborde deux problématiques : celle de la localisation et celle du routage. Concernant la localisation, une famille de trois méthodes est proposée pour estimer les positions des capteurs en y associant des bornes d'erreur, à partir de localisations exactes connues pour certains d'entre eux et en fonction de leurs capacités de mesures. Cette famille est ensuite étendue aux réseaux de capteurs mobiles. Vient alors le problème du routage permettant l'acheminement d'un message d'un capteur vers une station de base lorsqu'il détecte un événement. Les stratégies de routage dit géographique s'appuient sur les positions des capteurs qui sont considérées comme exactes. Or, dans la pratique, ces positions sont rarement précises. Cette thèse propose deux algorithmes de routage destinés respectivement aux réseaux de capteurs statiques et mobiles en considérant des positions estimées, rendant ainsi ces méthodes compatibles avec les algorithmes de localisation.
|
53 |
Sauvegarde coopérative de données pour dispositifs mobilesCourtès, Ludovic 23 November 2007 (has links) (PDF)
Les dispositifs informatiques mobiles tels que les ordinateurs portables, assistants personnels et téléphones portables sont de plus en plus utilisés. Cependant, bien qu'ils soient utilisés dans des contextes où ils sont sujets à des endommagements, à la perte, voire au vol, peu de mécanismes permettent d'éviter la perte des données qui y sont stockées. Dans cette thèse, nous proposons un service de sauvegarde de données coopératif pour répondre à ce problème. Cette approche tire parti de communications spontanées entre de tels dispositifs, chaque dispositif stockant une partie des données des dispositifs rencontrés. Une étude analytique des gains de cette approche en termes de sûreté de fonctionnement est proposée. Nous étudions également des mécanismes de stockage réparti adaptés. Les problèmes de coopération entre individus mutuellement suspicieux sont également abordés. Enfin, nous décrivons notre mise en oeuvre du service de sauvegarde coopérative.
|
54 |
Tolérance aux fautes dans les systèmes répartis à base d'intergiciels réflexifs standardsBennani, Taha 20 June 2005 (has links) (PDF)
Conscient que la réflexivité permet d'améliorer la conception et la maintenance des applications, en séparant leurs aspects fonctionnels et non-fonctionnels, nous explorons dans cette thèse le potentiel réflexif de l'intergiciel CORBA. Afin d'effectuer une analyse en profondeur, nous avons développé une plate-forme à composants fournissant de manière transparente des mécanismes classiques de réplication. Cette plate-forme nous a permis de montrer les limites de la spécification actuelle des intercepteurs CORBA, PIs (Portable Interceptors). Nous avons identifié précisément certaines difficultés de mise en oeuvre, notamment à cause de la dépendance des intercepteurs vis-à-vis du serveur auquel ils sont attachés et la faible contrôlabilité des interactions réparties. À la lumière de ce travail, nous proposons une amélioration du potentiel réflexif de la norme CORBA actuelle afin de la rendre plus adaptée à la mise en oeuvre des mécanismes de tolérance aux fautes.
|
55 |
Tolérance aux fautes sur CORBA par protocole à métaobjets et langages réflexifsKillijian, Marc-Olivier 19 January 2000 (has links) (PDF)
L'objectif de cette thèse est la conception et l'implémentation d'un protocole à métaobjets adapté à la tolérance aux fautes d'objets Corba. En effet, il n'existe pas, à ce jour, de protocole à métaobjets satisfaisant dans ce contexte. Le protocole que nous définissons permet, d'une part, le contrôle du comportement et de l'état interne des objets Corba, et d'autre part, le contrôle des liens entre clients et serveur ainsi qu'entre objets et métaobjets, le tout de façon dynamique. L' implémentation proposée est adaptée à l'utilisation d'une plateforme Corba standard grâce à l'utilisation de langages ouverts et de réflexivité à la compilation : ces outils permettent de personnaliser le processus de compilation afin d'exhiber à l'exécution les informations nécessaires aux mécanismes de tolérance aux fautes. Un autre avantage de la réflexivité à la compilation est de permettre, de façon simple, d'assurer le respect de conventions de programmation grâce au filtrage du code source des applications. Ce protocole, bien intégré à Corba, tire également profit, lorsque c'est possible, des éléments réflexifs fournis par le support d'exécution du langage. C'est le cas avec Java, par exemple, qui permet la sérialisation des objets, grâce à ses aspects réflexifs limités. Lorsque le support du langage n'est pas réflexif, comme pour C++ par exemple, la réflexivité à la compilation permet également de mettre en ¿uvre des techniques de sauvegarde et de restauration de l'état des objets ; état complet et état partiels peuvent être contrôlés par les métaobjets. Les différentes propriétés de ce protocole à métaobjets sont illustrées par une proposition d'architecture Corba permettant d'intégrer à l'application des mécansimes de tolérance aux fautes de manière très flexible. Les propriétés de cette approche sont une bonne séparation entre l'application et les mécanismes non-fonctionnels implémentés dans les métaobjets, l'aspect dynamique du lien entre objets et métaobjets, la composabilité et la réutilisation des mécanismes ainsi que la transparence pour l'utilisateur. Enfin, ce protocole à métaobjets est suffisamment générique pour tirer parti de l' ouverture, au sens de la réflexivité, des logiciels de base (système d'exploitation et middleware) de la plateforme.
|
56 |
Transport des données et gestion de la congestion dans l'Internet de demain : du contrôle à l'anarchieLochin, Emmanuel 20 October 2011 (has links) (PDF)
Le monde du transport est en pleine révolution conceptuelle. Bien qu'ayant assisté au cours de ces dernières années à la naissance de nouveaux contrôles de congestion, dont certains ont été déployés de façon virale, l'universalité d'une solution protocolaire n'existe toujours pas. Plusieurs travaux s'accordent sur le fait que la couche transport a grandement besoin d'évoluer et les nouveaux défis engendrés par l'évolution des réseaux et usages de l'Internet ont pris le pas sur le problème originel de l'effondrement des ressources que devait prévenir le contrôle de congestion de la couche transport. Certains remettent d'ailleurs en question le découpage du modèle OSI et proposent de restructurer complétement la couche transport ; d'autres soulignent l'obsolescence du concept d'effondrement du réseau ou considèrent l'équité comme un critère irréaliste et impraticable. C'est dans ce contexte que cette habilitation explore plusieurs solutions protocolaires pour la couche transport, principalement pour le monde du best-effort, en partant des réseaux à QoS jusqu'aux réseaux anarchiques. Le principal problème de la couche transport n'est pas qu'elle doit évoluer : c'est comment la faire évoluer, c'est-à-dire, sans avoir à convaincre les concepteurs de systèmes d'exploitation. Aussi, nous étudions des approches qui ne rentreraient pas sous la tutelle de ces derniers et qui resteraient, autant que possible, indépendantes d'un déploiement de mécanisme collaboratif dans le coeur du réseau.
|
57 |
Un Eco-système de Médias Réseaux basé sur la Conscience du Contexte, du Réseau et du Contenu à destination de l'Internet Media du FuturNégru, Daniel 05 December 2013 (has links) (PDF)
La tendance et l'absolu nécessité d'aujourd'hui est de construire l'Internet du futur. De nombreuses actions de recherche sont menées dans ce sens et la plupart d'entre elles décrivent le domaine des médias comme l'un des plus prédominants et essentiels à prendre en considération. En effet, le contenu média est déjà dominant sur Internet et ne cesse d'augmenter alors que l'architecture actuelle n'avait pas été construite avec les médias en tête. La diffusion efficace de contenu multimédia devient maintenant une évolution nécessaire non seulement pour plaire aux utilisateurs finaux, mais aussi pour révéler de nouvelles opportunités d'affaires pour tous les acteurs de la chaîne de valeur. Dans cette thèse, nous proposons une nouvelle architecture pour l'avenir des réseaux de médias Internet, centrée autour du concept d'une approche collaborative gagnant-gagnant entre tous les acteurs. Le "Networked Media écosystème" que nous nous efforçons de construire permettra de nouvelles fonctionnalités et des avantages pour toutes les parties prenantes, essentiellement grâce à l'innovation basée sur la prise de conscience qu'il permet et leurs résultats en termes d'amélioration de la qualité et de l'adaptation. L'approche proposée repose sur: (1) une couche Home-Box virtuelle, qui d'une part prend en compte le Contexte et le Réseau au niveau de l'Application afin de permettre un système de diffusion de contenu efficace et, d'autre part, fournit des informations pour mettre en œuvre la conscience du contenu au niveau du Réseau; (2) une couche réseau basée sur le Contenu (CAN), dont le rôle est d'examiner les informations relatives au contenu transporté et de prendre les mesures appropriées, en plus de fournir de l'information aux couches supérieures. L'architecture proposée n'a pas seulement été conçue et simulée, mais aussi mise en œuvre et validée par le projet européen nommé ALICANTE. Ce projet a permis de fournir des résultats intéressants et a ouvert la voie à des évolutions et des orientations futures de la recherche dans le domaine des Réseaux de Média.
|
58 |
Plan de connaissance pour les réseaux sémantiques : application au contrôle d'admissionAmmar, Doreid 07 December 2012 (has links) (PDF)
Depuis quelques années, il y a un réel changement dans les usages des réseaux en termes d'applications véhiculées ainsi que dans leur nombre. On voit apparaître de plus en plus d'applications contraintes en termes de délai, comme par exemple la téléphonie sur IP, ainsi que d'applications gourmandes en ressources comme par exemple le Srteaming Video. La croissance en volume de ces applications copmmence à poser des problèmes de congestion dasn les réseaux filiares et sans fil. Les opérateurs réseaux doivent être capables d'absorber ces changements de trafic, de faire face à cette demande de plus en plus intensive en bande passante et de fournir une bonne qualité (QoS) aux applications. Cela nécessite des mécanismes intellignets en termes d'ordonnancement et de gestion des files d'attente, de contrôle d'admission, de contrôle de débit et/ou de routage. L'objectif initial de cette thèse étati d'aboutir à la conception d'une nouvelle architecture de traitement et de gestion du trafic et de la qualité de service pour le contrôle d'admission. Plus précisément nous présentons une nouvelle solution pour le contrôle d'admission qui repose sur l'élaboration en continu d'un plan de connaissance et sur la modélisatio automatique du comportement d'un lien réseau par une file d'attente monoserveur. Norte solution doit permettre d'offrir une garantie probabiliste d'un paramètre de performance QoS qui peut être le délai d'attente moyen des paquets dans le buffer du lien ou le taux de perte. Nous avons évalué les performances de notre nouveau contro^le d'admission par simulation en considérant diverses conditions possibles de trafic. Lers résultats obtenus indiquent que la solution proposée permet d'atteindre un contrôle d'admission ni trop conservateur, ni trop permissif. En outre, notre solution offre l'avantage de se baser uniquement sur une connaisssance acquise au cours du temps et permet ainsi de s'affranchir d'un paramétrage compliqué des paramètres comme c'est le cas pour les solutions classiques de contrôle d'admission
|
59 |
Enjeux de conception des architectures GPGPU : unités arithmétiques spécialisées et exploitation de la régularitéCollange, Sylvain 30 November 2010 (has links) (PDF)
Les processeurs graphiques (GPU) actuels offrent une importante puissance de calcul disponible à faible coût. Ce fait a conduit à détourner leur emploi pour réaliser du calcul non graphique, donnant naissance au domaine du calcul généraliste sur processeur graphique (GPGPU). Cette thèse considère d'une part des techniques logicielles pour tirer parti de l'ensemble des opérateurs arithmétiques spécifiques aux GPU dans le cadre du calcul scientifique, et d'autre part des adaptations matérielles aux GPU afin d'exécuter plus efficacement les applications généralistes. En particulier, nous identifions la régularité parallèle comme une opportunité d'optimisation des architectures parallèles, et exposons son potentiel par la simulation d'une architecture GPU existante. Nous considérons ensuite deux alternatives permettant d'exploiter cette régularité. D'une part, nous mettons au point un mécanisme matériel dynamique afin d'améliorer l'efficacité énergétique des unités de calcul. D'autre part, nous présentons une analyse statique opérée à la compilation permettant de simplifier le matériel dédié au contrôle dans les GPU.
|
60 |
Towards flexible QoS provisioning for inter-provider servicesBertrand, Gilles 08 December 2009 (has links) (PDF)
The issue of providing Quality of Service (QoS) in the Internet is becoming more and more important because of two phenomena: (1) the growth of the value added services that require QoS (e.g., VPNs, IPTV) and (2) network convergence towards a unified IP-based architecture, for voice, image and data services. In this context, the limitations of existing QoS technologies emerge: it is currently difficult for an operator to guarantee that its network can offer a specific level of service. Furthermore, it is hard to ensure a consistent treatment of end-to-end QoS-sensitive flow that cross networks controlled by several operators. Indeed, the control on such traffic flows is shared between all the traversed operators. In the thesis, we have studied these issues. Specifically, we have addressed the problems of routing and dynamic traffic engineering at inter-domain level. We have proposed several algorithmic solutions to compute paths subject to multiple performance constraints. Analytical studies and simulations show that our algorithms are efficient and scalable. Finally, we have integrated our solutions into an architecture that is under ongoing standardization by the IETF and we have studied the protocol adaptations required for the deployment of our algorithms. Our work represents an important step towards more effective inter-domain traffic management in traffic engineered networks
|
Page generated in 0.1069 seconds