• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • 1
  • Tagged with
  • 11
  • 11
  • 9
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reusability and hierarchical simulation modeling of communication systems for performance evaluation

Mrabet, Radouane 12 June 1995 (has links)
<p align="justify">The main contribution of this thesis is the emphasis made on the reusability concept, on one side, for designing a simulation environment, and on the other side, for defining two different levels of granularity for reusable network component libraries.</p> <p align="justify">The design of our simulation environment, called AMS for Atelier for Modeling and Simulation, was based on existing pieces of software, which proved their usefulness in their respective fields. In order to carry out this integration efficiently, a modular structure of the atelier was proposed. The structure has been divided into four phases. Each phase is responsible of a part of the performance evaluation cycle. The main novelty of this structure is the usage of a dedicated language as a means to define a clear border between the editing and simulation phases and to allow the portability of the atelier upon different platforms. A prototype of the atelier has been developed on a SUN machine running the SunOs operating system. It is developed in C language.</p> <p align="justify">The kernel of the AMS is its library of Detailed Basic Models (DBMs). Each DBM was designed in order to comply with the most important criterion which is reusability. Indeed, each DBM can be used in aeveral network architectures and can be a component of generic and composite models. Before the effective usage of a DBM, it is verified and validated in order to increase the model credibility. The most important contribution of this research is the definition of a methodology for modeling protocol entities as DBMs. We then tried to partly bridge the gap between specification and modeling. This methodology is based on the concept of function. Simple functions are modeled as reusable modules and stored into a library. The Function Based Methodology was designed to help the modeler to build efficiently and rapidly new protocols designed for the new generation of networks where several services can be provided. These new protocols can be dynamically tailored to the user' s requirements.</p>
2

Protocoles de transport pour la diffusion vidéo temps-réel sur lien sans-fil / Enhanced Transport Protocols for Real Time and Streaming Applications on Wireless Links

Sarwar, Golam 09 July 2014 (has links)
Les communications multimedia à forte contrainte de délai dominent de plus en plus l'Internet et supportent principalement des services interactifs et de diffusion de contenus multimedia. En raison de la prolifération des périphériques mobiles, les liaisons sans-fil prennent une part importante dans la transmission de ces données temps réel. Un certain nombre de questions doivent cependant être abordées afin d'obtenir une qualité de service acceptable pour ces communications dans ces environnements sans-fil. En outre, la disponibilité de multiples interfaces sans-fil sur les appareils mobiles offre une opportunité d'améliorer la communication tout en exacerbant encore les problèmes déjà présents sur les liaisons sans-fil simples. Pour faire face aux problèmes d'erreurs et de délai de ces liaisons, cette thèse propose deux améliorations possibles. Tout d'abord, une technique d'amélioration pour le protocole de transport multimedia Datagram Congestion Control Protocol (DCCP/CCID4) pour lien long délai (par exemple, lien satellite) qui améliore significativement les performances du transport de la voix sur IP (VoIP). En ce qui concerne les erreurs de lien et le multi-chemin, cette thèse propose et évalue un code à effacement adapté au protocole Stream Transport Control Protocol (CMT-SCTP). Enfin, un outil d'évaluation en ligne de streaming de qualité vidéo, implémentant une méthode cross-layer d'évaluation de la qualité vidéo en temps-réel pour encodeur H.264 est proposé à la communauté réseau en open-source. / Real time communications have, in the last decade, become a highly relevant component of Internet applications and services, with both interactive (voice and video) communications and streamed content being used by people in developed and developing countries alike. Due to the proliferation of mobile devices, wireless media is becoming the means of transmitting a large part of this increasingly important real time communications traffic. Wireless has also become an important technology in developing countries (and remote areas of developed countries), with satellite communications being increasingly deployed for traffic backhaul and ubiquitous connection to the Internet. A number of issues need to be addressed in order to have an acceptable service quality for real time communications in wireless environments. In addition to this, the availability of multiple wireless interfaces on mobile devices presents an opportunity to improve and further exacerbates the issues already present on single wireless links. Mitigation of link errors originating from the wireless media, addressing packet reordering, jitter, minimising the link and buffering (required to deal with reordering or jitter) delays, etc. all contribute to lowering user's quality of experience and perception of network quality and usability. Therefore in this thesis, we consider improvements to transport protocols for real time communications and streaming services to address these problems.
3

Amélioration de la transmission de contenus vidéo et de données dans les réseaux sans-fil

Ramadan, Wassim 04 July 2011 (has links) (PDF)
Cette thèse traite de l'amélioration du transfert de données, d'une part sur les réseaux sans-fils et d'autre part pour des données continues telles que la vidéo. Pour améliorer les transmissions sur les réseaux sans-fils nous nous sommes intéressés au contrôle de congestion des protocoles de transport mais nous avons également proposé une méthode pratique d'adaptation de la vidéo aux conditions du réseau.Cette thèse contient donc deux volets. La première porte sur la différenciation de pertes entre les pertes de congestion et les pertes sur le réseau sans fil. Il est connu que lors d'une perte, les protocoles de transport actuels réduisent le débit (par deux par exemple). Or, pour les pertes sans fil, cela n'a pas d'intérêt. Pour différencier ces pertes sur l'émetteur des données, nous proposons une méthode originale qui utilise à la fois ECN (Explicit Congestion Notification) et le changement sur le RTT du paquet qui suit la perte. La seconde propose une méthode originale d'adaptation vidéo au niveau de la couche application sur l'émetteur. Avec l'arrivée des vidéos à bitrate élevés (HD, 3D) et l'augmentation constante mais irrégulière des bandes passantes réseau, la qualité vidéo à l'utilisateur reste à la traîne : elle est non-optimale (bitrate beaucoup plus petit ou plus grand que le débit disponible) et non adaptable (aux conditions dynamiques du réseau). Nous proposons une méthode très simple à implémenter, puisqu'elle ne requiert qu'une modification côté émetteur au niveau de la couche application. Elle adapte en permanence le bitrate de la vidéo aux conditions du réseau, autrement dit elle fait un contrôle de congestion sur l'émetteur. La visioconférence est un cas d'application idéal. Cette méthode fonctionne au-dessus de tout protocole de transport avec contrôle de congestion (TCP, DCCP), ce qui lui confère aussi la propriété de TCP-friendliness.
4

Transport des données et gestion de la congestion dans l'Internet de demain : du contrôle à l'anarchie

Lochin, Emmanuel 20 October 2011 (has links) (PDF)
Le monde du transport est en pleine révolution conceptuelle. Bien qu'ayant assisté au cours de ces dernières années à la naissance de nouveaux contrôles de congestion, dont certains ont été déployés de façon virale, l'universalité d'une solution protocolaire n'existe toujours pas. Plusieurs travaux s'accordent sur le fait que la couche transport a grandement besoin d'évoluer et les nouveaux défis engendrés par l'évolution des réseaux et usages de l'Internet ont pris le pas sur le problème originel de l'effondrement des ressources que devait prévenir le contrôle de congestion de la couche transport. Certains remettent d'ailleurs en question le découpage du modèle OSI et proposent de restructurer complétement la couche transport ; d'autres soulignent l'obsolescence du concept d'effondrement du réseau ou considèrent l'équité comme un critère irréaliste et impraticable. C'est dans ce contexte que cette habilitation explore plusieurs solutions protocolaires pour la couche transport, principalement pour le monde du best-effort, en partant des réseaux à QoS jusqu'aux réseaux anarchiques. Le principal problème de la couche transport n'est pas qu'elle doit évoluer : c'est comment la faire évoluer, c'est-à-dire, sans avoir à convaincre les concepteurs de systèmes d'exploitation. Aussi, nous étudions des approches qui ne rentreraient pas sous la tutelle de ces derniers et qui resteraient, autant que possible, indépendantes d'un déploiement de mécanisme collaboratif dans le coeur du réseau.
5

Amélioration de la transmission de contenus vidéo et de données dans les réseaux sans-fil / Improving the transmission of video and data in wireless networks

Ramadan, Wassim 04 July 2011 (has links)
Cette thèse traite de l’amélioration du transfert de données, d’une part sur les réseaux sans-fils et d’autre part pour des données continues telles que la vidéo. Pour améliorer les transmissions sur les réseaux sans-fils nous nous sommes intéressés au contrôle de congestion des protocoles de transport mais nous avons également proposé une méthode pratique d’adaptation de la vidéo aux conditions du réseau.Cette thèse contient donc deux volets. La première porte sur la différenciation de pertes entre les pertes de congestion et les pertes sur le réseau sans fil. Il est connu que lors d’une perte, les protocoles de transport actuels réduisent le débit (par deux par exemple). Or, pour les pertes sans fil, cela n’a pas d’intérêt. Pour différencier ces pertes sur l’émetteur des données, nous proposons une méthode originale qui utilise à la fois ECN (Explicit Congestion Notification) et le changement sur le RTT du paquet qui suit la perte. La seconde propose une méthode originale d’adaptation vidéo au niveau de la couche application sur l’émetteur. Avec l’arrivée des vidéos à bitrate élevés (HD, 3D) et l’augmentation constante mais irrégulière des bandes passantes réseau, la qualité vidéo à l’utilisateur reste à la traîne : elle est non-optimale (bitrate beaucoup plus petit ou plus grand que le débit disponible) et non adaptable (aux conditions dynamiques du réseau). Nous proposons une méthode très simple à implémenter, puisqu’elle ne requiert qu’une modification côté émetteur au niveau de la couche application. Elle adapte en permanence le bitrate de la vidéo aux conditions du réseau, autrement dit elle fait un contrôle de congestion sur l’émetteur. La visioconférence est un cas d’application idéal. Cette méthode fonctionne au-dessus de tout protocole de transport avec contrôle de congestion (TCP, DCCP), ce qui lui confère aussi la propriété de TCP-friendliness. / This thesis deals in improving the data transfer on wireless networks and for the continuous data such as video. To improve transmission over wireless networks, we were interested in congestion control transport protocols and we also proposed a practical method for adjusting the video rate to network conditions.This thesis composes of two parts. The first part concerns the loss differentiation between congestion losses and losses on the wireless network. It is known that when there is a loss, transport protocols reduce the current sending rate (e.g. by two). However, for wireless losses, it has no interest in reducing the rate. To differentiate these losses on the data senders side, we propose a novel method that uses both the ECN (Explicit Congestion Notification) and the change of RTT of the packet following the loss. The second part proposes a novel method for video adaptation at the application layer of the sender. With the advent of high bitrate video (e.g. HD, 3D) and steadily increasing but irregular network bandwidth, video quality to the user lags. It is non-optimal (bitrate is highly smaller or larger than the available bandwidth) and not adaptable (to the dynamic conditions of the network). We propose a simple method to implement, since it requires a change only at the application layer of the sender. It adapts the bitrate of the video to the network conditions, i.e. it is a congestion control on the transmitter. Videoconferencing is an ideal case for the application of adaptation. This method works over any transport protocol with congestion control (e.g. TCP, DCCP), which also confers the property of TCP-friendliness.
6

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
7

Architecture de transport multimedia à connexions d'ordre partiel

Chassot, Christophe 21 December 1995 (has links) (PDF)
Les travaux présentés dans ce mémoire ont pour cadre la recherche de nouveaux services et protocoles de Transport, aptes à supporter le transfert de données multimédia en tenant compte des exigences applicatives en termes de hauts débits et de synchronisation. L'approche proposée repose sur la définition et le développement d'un nouveau concept: la connexion d'ordre partiel (POC - Partial Order Connection), établissant un lien conceptuel entre les modes de service/protocole orientés-connexion tels que TCP, et sans connexion tels que UDP. Une POC est une connexion de bout en bout permettant de définir et de mettre en œuvre tous les services et protocoles d'ordre partiel entre deux entités communicantes ; dans une POC, la délivrance des données à l'utilisateur récepteur peut être effectuée dans un ordre différent de l'ordre de soumission de ces données par l'utilisateur émetteur: la différence (acceptable) entre ces deux ordres résulte de la définition, par l'utilisateur, d'un ordre partiel de délivrance lors de l'ouverture de la connexion. Une formalisation des mécanismes correspondants est proposée au moyen de la technique de description formelle Estelle. Les caractéristiques intrinsèques des différents média d'un flux multimédia ont conduit ces dernières années au développement d'architectures de communication intégrant la prise en compte des contraintes applicatives à différents niveaux conceptuels, et notamment au niveau Transport du modèle OSI ; à partir d'une modélisation de ces contraintes utilisant le formalisme des réseaux de Petri (le modèle TSPN), l'auteur propose d'intégrer le concept de POC dans une architecture de Transport multimédia autorisant une prise en compte globale des contraintes d'ordre et de fiabilité d'un flux multimédia. Les mécanismes de gestion de l'ordre et de la fiabilité qui sont proposés permettent de définir un service de Transport multimédia offrant une hypothèse nouvelle aux utilisateurs vis à vis de la problématique de la synchronisation. Une étude de la faisabilité d'un protocole multimédia d'ordre partiel à l'aide des procédures XTP est finalement présentée: elle conclut en la possibilité d'une telle réalisation
8

Méthodologie, modèles et paradigmes pour la conception d'une couche transport de nouvelle génération

Expósito, Ernesto 09 December 2010 (has links) (PDF)
Les thèmes de recherche développés dans cette habilitation portent sur les méthodologies guidées par les modèles sémantiques et les paradigmes architecturaux nécessaires pour la conception et le développement d'une couche transport de nouvelle génération. Une première partie présente un état de l'art des protocoles de transport et introduit une méthodologie guidée par les modèles et une implémentation sous la forme d'un modèle sémantique pour la conception des protocoles de transport avancés. Une deuxième partie présente nos travaux relatifs à la conception (UML) et l'implémentation (JAVA) d'un protocole de transport orienté composants. Il en propose, en perspective, une extension suivant les paradigmes des architectures orientées services et basées composants. Une troisième partie présente nos contributions aux stratégies d'adaptabilité guidées par les modèles pour gérer l'adaptation comportementale et structurelle des protocoles de transport. En perspective, la conception et le développement d'une couche transport orientée composants et orientée services pour aboutir à des propriétés d'adaptabilité puis d'autonomie suivant le cadre de l'autonomic computing, et basés sur les ontologies, sont présentés.
9

Mécanismes de cache, traitement et diffusion de l'information dans les réseaux centrés sur l'information (ICN) / Cache, process and forward in Information-centric networking

Mekinda Mengue, Leonce 01 December 2016 (has links)
Ce travail de thèse s’est tout d’abord attaché à comprendre comment la prise en compte du temps de téléchargement, autrement dit, de la latence, lors de la mise en cache ou de la transmission de données pouvait contribuer aux performances du téléchargement dans les réseaux de caches dont ICN. Nous y introduisons un mécanisme distribué novateur qui décide de l’opportunité de conserver un objet en considérant que plus il a été long à télécharger plus intéressant il semble de le soumettre au cache sous-jacent. Nous montrons que ce nouveau mécanisme surpasse en de nombreux points l’état de l’art, que ce soit du point de vue de la réduction du temps moyen de téléchargement à partir de caches LRU, et de son écart-type (jusqu’à −60% ), que de celui de la vitesse de convergence vers ceux-ci. Dans une seconde phase, nous avons optimisé conjointement les fonctions de mises en cache et de distribution multi-chemin de requêtes de contenus. Troisièmement, nous avons étudié l’équité vis-à-vis des contenus au sein des réseaux de caches et plus particulièrement, d’ICN. Il en ressort que seule suffit une allocation équitable de la bande passante entre les contenus pour que l’équité d’ICN soit complète. Notre dernière contribution vise à aider au passage à l’échelle d’ICN dans contexte où deviennent réalités l’Internet des Objets et son espace de nommage illimité. Nous avons proposé une approche nouvelle au routage dans les réseaux centrés sur l’information, nommée AFFORD, qui combine apprentissage automatique et diffusion aléatoire. / This thesis investigates how making content caching and forwarding latency-aware can improve data delivery performance in Information-Centric Networks (ICN). We introduce a new mechanism that leverages retrieval time observations to decide whether to store an object in a network cache, based on the expected delivery time improvement. We demonstrate that our distributed latency-aware caching mechanism, LAC+, outperforms state of the art proposals and results in a reduction of the content mean delivery time and standard deviation of LRU caches by up to 60%, along with a fast convergence to these figures. In a second phase, we conjointly optimize the caching function and the multipath request forwarding strategies. To this purpose, we introduce the mixed forwarding strategy LB-Perf, directing the most popular content towards the same next hops to foster egress caches convergence, while load-balancing the others. Third, we address ICN fairness to contents. We show that traditional ICN caching, which favors the most popular objects, does not prevent the network from being globally fair, content-wise. The incidence of our findings comforts the ICN community momentum to improve LFU cache management policy and its approximations. We demonstrate that in-network caching leads to content-wise fair network capacity sharing as long as bandwidth sharing is content-wise fair. Finally, we contribute to the research effort aiming to help ICN Forwarding Information Base scale when confronted to the huge IoT era’s namespace.We propose AFFORD, a novel view on routing in named-data networking that combines machine learning and stochastic forwarding.
10

Specification et implementation d'une architecture de signalisation a gestion automatique de la QdS dans un environnement IP multi domaines

AURIOL, Guillaume 16 November 2004 (has links) (PDF)
L'Internet du futur aura a transporter les donnees de nouvelles applications avec des garanties de qualite de service (QdS). De ce besoin resulte la necessite d'en re-concevoir l'architecture. Par ailleurs, la structure de l'Internet, compose de domaines independants vis a vis de la gestion de la QdS, pose le probleme de la continuite du service lors de la traversee de plusieurs domaines. Face a ces deux problematiques, la these soutenue est celle d'un systeme de communication offrant des garanties de QdS par flux applicatif dans un environnement Internet multi domaines. Son architecture integre un plan communication comportant plusieurs services/protocoles aux niveaux Transport et IP, et un plan signalisation assurant la gestion des ressources a la frontiere des domaines. Nos contributions sont les suivantes. Nous proposons un modele de caracterisation des services IP et Transport, etaye par : (1) des mesures realisees sur une plate forme nationale, (2) une etude en simulation (ns-2) et (3) des mesures realisees sur une plate-forme emulant (Dummynet) un Internet multi domaines. Nous etendons l'architecture de communication proposee dans des travaux anterieurs de facon a abstraire le niveau applicatif de la complexite du choix des services Transport et IP, et a optimiser l'utilisation des ressources du reseau. Nous specifions en UML et implementons en Java notre proposition d'architecture de signalisation permettant d'assurer la continuite du service offert aux applications sur tous les domaines traverses. Enfin, nous testons le systeme de communication avec deux types d'applications multimedias sur une plate-forme emulant le comportement de plusieurs domaines DiffServ.

Page generated in 0.075 seconds