• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 8
  • 2
  • Tagged with
  • 23
  • 11
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Operating System Design and Implementation for Single-Chip cc-NUMA Many-Core / Conception et réalisation d’un système d’exploitation pour des processeurs many-cores

Almaless, Ghassan 27 February 2014 (has links)
De nos jours, des processeurs à mémoire partagée cohérente ayant jusqu’à 100 coresintégrés sur la même puce sont une réalité et des processeurs many-cores ayant plusieurs centaines, voire, un millier de cores sont à prévoir prochainement.Dans ces architectures, la question de la localité du trafic lié aux miss decaches L1 (data, instruction et TLB) est primordiale à la fois pour passer àl’échelle et pour réduire la consommation électrique (énergie consommée par bittransféré). Notre thèse est que : (i) la gestion de la localité des accès mémoiredoit être prise en compte au niveau du noyau du système d’exploitation et elle doitêtre effectuée d’une manière transparente aux applications utilisateur; et (ii) les noyaux monolithiques actuels sont incapables de renforcer la localité des accès mémoire des threads d’une même application parallèle, car la notion de threadsdans ces noyaux est intrinsèquement inadaptée pour les processeurs many-cores.Par conséquent, nous pensons que la démarche suivie jusqu’à présent pour faireévoluer les noyaux monolithiques n’est pas suffisante et qu’il est impératif demettre la question de la localité des accès mémoire au centre de cette évolution.Pour prouver notre thèse, nous avons conçu et réalisé ALMOS (Advanced Locality Management Operating System), un système d’exploitation expérimental à base de noyau monolithique distribué. ALMOS dispose d’un nouveau concept de thread, nommé Processus Hybrides. Il permet à son noyau de renforcer, d’une manière transparente, la localité des accès mémoire liés à l'exécution de chaque thread. La gestion des ressources (cores et mémoires physiques) dans le noyau d’ALMOS est distribuée renforçant la localité des accès mémoire lors de la réalisation des services systèmes. La prise de décision concernant l’allocation mémoire, le placement des tâches et l’équilibrage de charge dans le noyau d’ALMOS est décentralisée, multi-critères et sans prise de verrou. Elle repose sur une infrastructure distribuée coordonnant d’une manière scalable l’accès aux ressources.En utilisant le prototype virtuel précis au cycle et au bit près du processeur many-core TSAR, nous avons expérimentalement démontré que : (i) les performances(scalabilité et temps d’exécution) du schéma d'ordonnancement distribué du noyaud’ALMOS sur 256 cores dépassent celles des noyaux monolithiques existants; (ii) la réalisation répartie de l’appel système fork permet de passer à l’échellece service système sur 512 cores; (iii) le coût de la mise à jour de l’infrastructure distribué de prise de décisions du noyau d’ALMOS ne nécessiteque 0.05% de la puissance de calcul totale du processeur TSAR; (iv) les performances(scalabilité, temps d’exécution et trafic distant) de la stratégie d’affinitémémoire du noyau d’ALMOS, nommé Auto-Next-Touch, dépassent celles des deuxstratégies First-Touch et Interleave sur 64 cores; (v) le modèle de processushybrides d’ALMOS permet de passer à l’échelle deux applications hautementmulti-threads existantes sur 256 cores et une troisième sur 1024 cores; et enfin (vi) le couple ALMOS/TSAR (64 cores) offre systématiquement une bien meilleure scalabilité que le couple Linux/AMD (Interlagos 64 cores) pour 8 applications de classe HPC et traitement d’images. / Nowadays, single-chip cache-coherent many-core processors having up to 100 coresare a reality. Many-cores with hundreds or even a thousand of cores are planned in the near future. In theses architectures, the question of the locality of L1 cache-miss related traffic (data, instruction and TLB) is essential for both scalability and power consumption (energy by moved bit). Our thesis is that: (i) handling the locality of memory accesses should be done at kernel level of an operating system in a transparent manner to user applications; and (ii) the current monolithic kernels are not able to enforce the locality of memory accesses of multi-threaded applications, because the concept of thread in these kernels is inherently unsuitable for many-core processors. Therefore, we believe that the evolution approach of monolithic kernels undertaken until now is insufficient and it is imperative to put the question of the locality of memory accesses in the heart of this evolution.To prove our thesis, we designed and implemented ALMOS (Advanced Locality Management Operating System), an experimental operating system based on a distributed monolithic kernel. ALMOS has a new concept of thread, called Hybrid Process. It allows its kernel to enforce the locality of memory accesses of each thread. The resources (cores and physical memory) management in ALMOS's kernel is distributed enforcing the locality of memory accesses when performing system services. Decision making regarding memory allocation, tasks placement and load balancing in ALMOS's kernel is decentralized, multi-criteria and without locking. It is based on a distributed infrastructure coordinating, in a scalable manner, the accesses to resources.Using the cycle accurate and bit accurate virtual prototype of TSAR many-core processor, we experimentally demonstrated that: (i) performance (scalability and execution time) on 256 cores of the distributed scheduling scheme of ALMOS's kernel outperform those of the shared scheduling scheme found in existing monolithic kernels; (ii) distributed realization of the fork system call enables this system service to scale on 512 cores; (iii) updating the distrusted decision-making infrastructure of ALMOS's kernel costs just 0.05 % of the total computing power of TSAR processor; (iv) performance (scalability, execution time and remote traffic) of memory affinity strategy of ALMOS's kernel, called Auto-Next-Touch, outperform those of two existing strategies First-Touch and Interleave on 64 cores; (v) concept of Hybrid Process of ALMOS's kernel scales up two existing highly multi-threads applications on 256 cores and a third one on 1024 cores; and finally (vi) the couple ALMOS/TSAR (64 cores) gives systematically much better scalability than the couple Linux/AMD (Interlagos 64 cores) for 8 multi-threads applications belonging to HPC and image processing domains.
12

Système de fichiers scalable pour architectures many-cores à faible empreinte énergétique / Scalable file system for energy-efficient manycore architectures

Karaoui, Mohamed Lamine 28 June 2016 (has links)
Cette thèse porte sur l'étude des problèmes posés par l'implémentation d'un système de fichiers passant à l'échelle, pour un noyau de type UNIX sur une architecture manycore NUMA à cohérence de cache matérielle et à faible empreinte énergétique. Pour cette étude, nous prenons comme référence l'architecture manycore généraliste TSAR et le noyau de type UNIX ALMOS.L'architecture manycore visée pose trois problèmes pour lesquels nous apportons des réponses après avoir décrit les solutions existantes. L'un de ces problèmes est spécifique à l'architecture TSAR tandis que les deux autres sont généraux.Le premier problème concerne le support d'une mémoire physique plus grande que la mémoire virtuelle. Ceci est dû à l'espace d'adressage physique étendu de TSAR, lequel est 256 fois plus grand que l'espace d'adressage virtuel. Pour résoudre ce problème, nous avons profondément modifié la structure noyau pour le décomposer en plusieurs instances communicantes. La communication se fait alors principalement par passage de messages.Le deuxième problème concerne la stratégie de placement des structures du système de fichiers sur les nombreux bancs de mémoire. Pour résoudre ce problème nous avons implémenté une stratégie de distribution uniforme des données sur les différents bancs de mémoire.Le troisième problème concerne la synchronisation des accès concurrents. Pour résoudre ce problème, nous avons mis au point un mécanisme de synchronisation utilisant plusieurs mécanismes. En particulier, nous avons conçu un mécanisme lock-free efficace pour synchroniser les accès faits par plusieurs lecteurs et un écrivain. Les résultats expérimentaux montrent que : (1) l'utilisation d'une structure composée de plusieurs instances communicantes ne dégrade pas les performances du noyau et peut même les augmenter ; (2) l'ensemble des solutions utilisées permettent d'avoir des résultats qui passent mieux à l'échelle que le noyau NetBSD ; (3) la stratégie de placement la plus adaptée aux systèmes de fichiers pour les architectures manycore est celle distribuant uniformément les données. / In this thesis we study the problems of implementing a UNIX-like scalable file system on a hardware cache coherent NUMA manycore architecture. To this end, we use the TSAR manycore architecture and ALMOS, a UNIX-like operating system.The TSAR architecture presents, from the operating system point of view, three problems to which we offer a set of solutions. One of these problems is specific to the TSAR architecture while the others are common to existing coherent NUMA manycore.The first problem concerns the support of a physical memory that is larger than the virtual memory. This is due to the extended physical address space of TSAR, which is 256 times bigger than the virtual address space. To resolve this problem, we modified the structure of the kernel to decompose it into multiple communicating units.The second problem is the placement strategy to be used on the file system structures. To solve this problem, we implemented a strategy that evenly distributes the data on the different memory banks.The third problem is the synchronization of concurrent accesses to the file system. Our solution to resolve this problem uses multiple mechanisms. In particular, the solution uses an efficient lock-free mechanism that we designed, which synchronizes the accesses between several readers and a single writer.Experimental results show that: (1) structuring the kernel into multiple units does not deteriorate the performance and may even improve them; (2) our set of solutions allow us to give performances that scale better than NetBSD; (3) the placement strategy which distributes evenly the data is the most adapted for manycore architectures.
13

Scalabilité de scène multimédia

Pellan, Benoît 07 October 2010 (has links) (PDF)
Dans cette thèse, nous proposons la transposition de la notion de scalabilité des média, telle que définie par les codages hiérarchiques, aux scènes multimédia en charge de l'organisation spatiale et temporelle de la présentation interactive des différents média d'un document ou d'un service. Ainsi, une scène initiale est progressivement enrichie par des transformations successives, appelées mises à jour d'adaptation, de façon à aboutir à une présentation attractive et conforme à l'environnement d'usage. Notre approche, appelée Scalable MSTI, s'articule autour de trois axes de scalabilité qui séparent les Média et les propriétés Spatiales, Temporelles et Interactives d'une scène multimédia. Chacun de ces axes est constitué de couches de scalabilité contenant des mises à jour d'adaptation qui sont hiérarchisées selon une relation d'ordre définie par des paramètres d'adaptation choisis par l'éditeur en fonction des environnements d'usage envisagés. L'ensemble des présentations alternatives disponibles par scalabilité de scène est représenté sous la forme d'un graphe d'adaptation dans lequel une prise de décision constitue la sélection d'un parcours le long d'un chemin d'adaptation. La scalabilité de scène multimédia a été appliquée au domaine de la radio numérique au travers de la réception progressive de services multimédia. En outre, les capacités d'adaptation des services multimédia scalables de radio permettront, par exemple, l'exploitation de la largeur d'écran étendue de certains récepteurs ou encore une meilleure intégration des directives de sécurité routière en situation de conduite concernant les animations
14

Optimisation énergétique des protocoles de communication des réseaux de capteurs sans fil / Energy optimization of communication protocols of the WSN

Randriatsiferana, Rivo Sitraka A. 03 December 2014 (has links)
Pour augmenter la durée de vie des réseaux de capteurs sans fil, une solution est d'améliorer l'efficacité énergétique des protocoles de communication. Le regroupement des nœuds du réseau de capteurs sans fil en cluster est l'une des meilleures méthodes. Cette thèse présente propose plusieurs améliorations en modifiant les paramètres du protocole de référence LEACH. Pour améliorer la distribution énergétique des "cluster-heads", nous proposons deux protocoles de clustering centralisés k-LEACH et sa version optimisée k-LEACH-VAR. Un algorithme distribué, appelé e-LEACH, est également proposé pour réduire l'échange d'information périodique entre les nœuds et la station de base lors de l'élection des "cluster-heads". Par ailleurs, le concept l'équilibrage énergétique est introduit dans les métriques d'élection pour éviter les surcharges des nœuds. Ensuite, nous présentons une version décentralisée de k-LEACH qui, en plus des objectifs précédents, intègre la consommation d'énergie globale du réseau. Ce protocole, appelé, k-LEACH-C2D, vise également à favoriser la scalabilité du réseau. Pour renforcer ce dernier et l'autonomie des réseaux, les deux protocoles de routage "multi-hop" probabiliste, dénotés FRSM et CB-RSM construisent des chemins élémentaires entre les "cluster-heads" et la station de base. Le protocole CB-RSM forme une hiérarchie des "cluster-heads" pendant la phase de formation des clusters, en mettant un accent sur l'auto-ordonnancement et l'auto-organisation entre les "cluster-heads" pour rendre les réseaux le plus "scalable". Ces différents protocoles reposent sur l'idée de base que les nœuds ayant l'énergie résiduelle la plus élevée et la plus faible variance de consommation de l'énergie deviennent "cluster-head". Nous constantans le rôle central de la consommation du nœud dans nos différentes propositions. Ce point fera l'objet de la dernière partie de cette thèse. Nous proposons une méthodologie pour caractériser expérimentalement la consommation d'un nœud. Les objectifs visent à mieux appréhender la consommation pour différentes séquences d'état du nœud. Enfin, nous proposons un modèle global de la consommation du nœud. / To increase the lifetime of wireless sensor networks, a solution is to improve the energy efficiency of the communication's protocol. The grouping of nodes in the wireless sensor network clustering is one of the best methods. This thesis proposes several improvements by changing the settings of the reference protocol LEACH. To improve the energy distribution of "cluster-heads", we propose two centralized clustering protocols LEACH and k-optimized version k-LEACH-VAR. A distributed algorithm, called e-LEACH, is proposed to reduce the periodic exchange of information between the nodes and the base station during the election of "cluster-heads". Moreover, the concept of energy balance is introduced in metric election to avoid overloading nodes. Then we presented a decentralized version of k-LEACH, which in addition to the previous objectives, integrates the overall energy consumption of the network. This protocol, called k-LEACH-C2D, also aims to promote the scalability of the network. To reinforce the autonomy and networks, both routing protocols "multi-hop" probability, denoted CB-RSM and FRSM build elementary paths between the "cluster-heads" and elected the base station. The protocol, CB-RSM, forms a hierarchy of "cluster-heads" during the training phase clusters, with an emphasis on self-scheduling and self-organization between "cluster-heads" to make the networks more scalable. These protocols are based on the basic idea that the nodes have the highest residual energy and lower variance of energy consumption become "cluster-head". We see the central role of consumption of the node in our proposals. This point will be the last part of this thesis. We propose a methodology to characterize experimentally the consumption of a node. The objectives are to better understand the consumption for different sequences of the node status. In the end, we propose a global model of the consumption of the node.
15

Réseaux virtualisés de prochaine génération basés sur SDN / Next-generation SDN based virtualized networks

Rifai, Myriana 25 September 2017 (has links)
Les réseaux logiciels (Software Defined Network - SDN) permettent la programmation du réseau et facilitent sa configuration. Bien qu'SDN améliore les performances, il reste confronté à de multiples défis. Dans cette thèse, nous avons développé des solutions qui constituent un premier pas vers les réseaux SDN de prochaine génération. D’abord, nous présentons MINNIE qui permet la scalabilité des commutateurs SDN, qui ne supportent que quelques milliers de règles dans leur coûteuse mémoire TCAM. MINNIE comprime dynamiquement les règles de routage installées dans la TCAM, augmentant ainsi le nombre de règles pouvant être installées. Ensuite, nous abordons le problème de la dégradation de performance des flux courts avec un prototype d’ordonnancement qui exploite les statistiques des commutateurs pour diminuer leur délai de bout-en-bout. Puis, nous visons à diminuer l’intervalle de protection de 50ms qui n’est plus adapté aux applications modernes et réduit leur qualité d’expérience. Notre solution PRoPHYS s’appuie sur les statistiques des commutateurs dans les réseaux hybrides pour découvrir les pannes de liens plus vite que les solutions existantes. Enfin, nous abordons le problème de l’efficacité énergétique qui souvent mène à une dégradation de performance. Nous présentons SENAtoR, qui exploite les nœuds SDN en réseaux hybrides pour éteindre les nœuds réseau sans entraver la performance. Également, nous présentons SEaMLESS qui convertit le service fourni par une machine virtuelle inactive en une fonction de réseaux virtuelle pour permettre à l’administrateur d’utiliser les ressources bloquées tout en maintenant la disponibilité du service. / Software Defined Networking (SDN) was created to provide network programmability and ease complex configuration. Though SDN enhances network performance, it still faces multiple limitations. In this thesis, we build solutions that form a first step towards creating next-generation SDN based networks. In the first part, we present MINNIE to scale the number of rules of SDN switches far beyond the few thousands rules commonly available in TCAM memory, which permits to handle typical data center traffic at very fine grain. To do so MINNIE dynamically compresses the routing rules installed in the TCAM, increasing the number of rules that can be installed. In the second part, we tackle the degraded performance of short flows and present a coarse grained scheduling prototype that leverages SDN switch statistics to decrease their end-to-end delay. Then, we aim at decreasing the 50ms failure protection interval which is not adapted to current broadband speeds and can lead to degraded Quality of Experience. Our solution PRoPHYS leverages the switch statistics in hybrid networks to anticipate link failures by drastically decreasing the number of packets lost. Finally, we tackle the greening problem where often energy efficiency comes at the cost of performance degradation. We present SENAtoR, our solution that leverages SDN nodes in hybrid networks to turn off network devices without hindering the network performance. Finally, we present SEaMLESS that converts idle virtual machines into virtual network functions (VNF) to enable the administrator to further consolidate the data center by turning off more physical servers and reuse resources (e.g. RAM) that are otherwise monopolized.
16

Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués / Ensuring consistency in partially replicated data stores

Saeida Ardekani, Masoud 16 September 2014 (has links)
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête. / In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%.
17

Scalable location-temporal range query processing for structured peer-to-peer networks / Traitement de requêtes spatio-temporelles pour les réseaux pair-à-pair structurés

Cortés, Rudyar 06 April 2017 (has links)
La recherche et l'indexation de données en fonction d'une date ou d'une zone géographique permettent le partage et la découverte d'informations géolocalisées telles que l'on en trouve sur les réseaux sociaux comme Facebook, Flickr, ou Twitter. Cette réseau social connue sous le nom de Location Based Social Network (LBSN) s'applique à des millions d'utilisateurs qui partagent et envoient des requêtes ciblant des zones spatio-temporelles, permettant d'accéder à des données géolocalisées générées dans une zone géographique et dans un intervalle de temps donné. Un des principaux défis pour de telles applications est de fournir une architecture capable de traiter la multitude d'insertions et de requêtes spatio-temporelles générées par une grande quantité d'utilisateurs. A ces fins, les Tables de Hachage Distribué (DHT) et le paradigme Pair-à-Pair (P2P) sont autant de primitives qui forment la base pour les applications de grande envergure. Cependant, les DHTs sont mal adaptées aux requêtes ciblant des intervalles donnés; en effet, l'utilisation de fonctions de hachage sacrifie la localité des données au profit d'un meilleur équilibrage de la charge. Plusieurs solutions ajoutent le support de requêtes ciblant des ensembles aux DHTs. En revanche ces solutions ont tendance à générer un nombre de messages et une latence élevée pour des requêtes qui ciblent des intervalles. Cette thèse propose deux solutions à large échelle pour l'indexation des données géolocalisées. / Indexing and retrieving data by location and time allows people to share and explore massive geotagged datasets observed on social networks such as Facebook, Flickr, and Twitter. This scenario known as a Location Based Social Network (LBSN) is composed of millions of users, sharing and performing location-temporal range queries in order to retrieve geotagged data generated inside a given geographic area and time interval. A key challenge is to provide a scalable architecture that allow to perform insertions and location-temporal range queries from a high number of users. In order to achieve this, Distributed Hash Tables (DHTs) and the Peer-to-Peer (P2P) computing paradigms provide a powerful building block for implementing large scale applications. However, DHTs are ill-suited for supporting range queries because the use of hash functions destroy data locality for the sake of load balance. Existing solutions that use a DHT as a building block allow to perform range queries. Nonetheless, they do not target location-temporal range queries and they exhibit poor performance in terms of query response time and message traffic. This thesis proposes two scalable solutions for indexing and retrieving geotagged data based on location and time.
18

Gestion autonomique de la QoS au niveau middleware dans l'IoT / Automatic QoS management at the middleware level in IoT

Banouar, Yassine 21 September 2017 (has links)
L'Internet connaît à nouveau une expansion drastique. En plus des terminaux classiques, il permet aujourd'hui d'interconnecter toute sorte d'objets connectés permettant la capture d'événements depuis l'environnement considéré, mais également le contrôle à distance de cet environnement. Plusieurs milliards de ces objets sont ainsi amenés à l'horizon 2020 à contribuer à l'avènement de l'Internet des Objets (IoT). Ce paradigme, qui étend le concept de Machine-to-Machine (M2M), ouvre la voie à de nouveaux usages tels que la domotique, la télésurveillance, ou encore les usines du futur. Plusieurs architectures ont été proposées pour structurer l'IoT. Leur fondement est basé sur une vision en quatre niveaux : le niveau Équipement, qui comporte les objets connectés, le niveau Réseau contenant les différentes technologies nécessaires aux échanges, le niveau Intergiciel (ou Middleware) qui offre aux applications une couche d'abstraction des niveaux sous-jacents, et enfin le niveau Application qui consiste en l'ensemble des applications concourant, via leurs interactions avec les objets connectés, à la réalisation d'une activité métier. Nos travaux se positionnent au niveau Middleware sur la base de l'architecture définie dans le cadre des standards SmartM2M puis oneM2M. Plusieurs problématiques sont amenées à être (re)-posées dans ce contexte. Nous nous intéressons essentiellement à celle de la qualité de service (QoS - Quality of Service) exprimée par certaines applications métiers. Les solutions proposées en réponse à cette problématique concernent principalement le niveau Réseau. Au niveau Middleware, les standards se focalisent essentiellement sur la proposition d'architectures et de services fonctionnels. Les besoins non fonctionnels, typiquement orientés QoS, ne sont que peu ou pas considérés. Parallèlement, les solutions propriétaires ne considèrent pas l'évolution dynamique du contexte et des besoins. Face à ces limites, nous proposons une approche de gestion dynamique, i.e. durant l'exécution du système, et autonome induisant un minimum d'intervention humaine. La gestion proposée, guidée par des modèles, porte sur des actions de reconfiguration comportementales et structurelles touchant au trafic applicatif et/ou sur les ressources de niveau Middleware / The Internet is experiencing a drastic expansion again. In addition to conventional terminals, it now allows to interconnect all kinds of connected objects allowing the capture of events from the considered environment, but also the remote control of this environment. Billions of these objects are thus led in 2020 to contribute to the advent of the Internet of Things (IoT). This paradigm, which extends the Machine-to-Machine (M2M) concept, paves the way for new uses such as home automation, remote monitoring, or even the factories of the future. Several architectures have been proposed to structure the IoT. Their foundation is based on a vision in four levels: (1) Equipment level, which includes the IoT equipment, (2) Network level containing the various technologies for data exchanges, (3) Middleware level, which offers applications an abstraction layer for underlying levels, and finally, (4) Application level, which consists of the set of applications contributing, via their interactions with the connected objects, to the realization of a business activity. Our work is positioned at Middleware level and is based on the architecture defined in the SmartM2M and then oneM2M standards. Several challenges have to be (re)considered in this context. We are mainly interested in the Quality of Service (QoS) issue expressed by some business applications. Proposals addressing this issue essentially target the Network level. For the Middleware level, standards focus mainly on the proposal of architectures and functional services. The non-functional requirements, typically QoS, are little or not considered. Meanwhile, proprietary solutions do not consider the dynamic evolution of the context and requirements. In response to these limitations, we propose a dynamic management approach, i.e. during the execution of the system, and autonomous, i.e. without human intervention. The proposed management, guided by models, focuses on behavioural and structural reconfiguration actions related to application traffic and/or Middleware resources.
19

Optimisation des performances d'un système de transmission multimédia sans fil basé sur la réduction du PAPR dans des configurations réalistes / Performance optimization of wireless multimedia transmission system based on PAPR reduction in realiste configuration

Koussa, Badreddin 18 April 2014 (has links)
Ce travail de thèse s'intéresse à l'optimisation des performances de transmissions multimédias par une approche originale combinant des circuits radiofréquences, tel que l'am-plificateur de puissance et les distorsions du canal de transmission. Les signaux OFDM sont très sensibles aux non-linéarités de l'amplificateur à cause des fortes fluctuations du niveau du signal, caractérisées par le PAPR. Afin de réduire le PAPR, on propose tout d'abord d'améliorer la méthode TR en termes de rapidité de convergence et de réduction du PAPR, en comparant plusieurs algorithmes d'optimisation. On montre que l'algorithme du gradient con-jugué offre les meilleures performances tout en respectant les spécifications fréquentielles du standard IEEE 802.11a. Par la suite, la méthode TR est évaluée expérimentalement en pré-sence d'un amplificateur de puissance (SZP-2026Z) en utilisant un banc de mesures. On montre ainsi que la méthode TR permet une amélioration de la qualité de transmission. Cette amélioration peut être utilisée pour modifier le point de fonctionnement de l'amplificateur et per-mettre ainsi une réduction de 18 % de la puissance consommée. Les résultats expérimentaux ont conduit au choix d'un modèle réaliste d'amplificateur en considérant les effets mémoires. Ce dernier a été intégré dans une chaîne de simulation SISO comprenant également un modèle réaliste de canal de transmission. La chaîne décrite a permis d'évaluer les performances de la méthode TR dans des conditions de transmission réalistes. Enfin, on propose d'appliquer la méthode TR dans une chaîne MIMO-OFDM en boucle fermée dédiée à la transmission de contenus multimédias scalables dans un environnement réaliste, en utilisant le standard IEEE 802.11n. Cette étude présente une évaluation originale de l'impact de la méthode TR sur la qualité visuelle des images transmises, en prenant en compte le contenu multimédia, la non-linéarité de l'amplificateur et les distorsions apportées par le canal. / In this thesis, we are interested on the performances optimization of multimedia transmissions systems with an original contribution combining RF circuits' imperfections presented by the power amplifier (PA) nonlinearities and the transmission channel distortions. The studied system uses the OFDM technique which is the most widespread multicarrier modulation in recent radio communications systems. However, its major drawback is the high PAPR value, which degrades the transmission quality due to the PA nonlinearities. To reduce the PAPR, we first propose to improve the TR method in terms of convergence speed and PAPR reduction, by studying several optimization algorithms. We show that the conjugate gradient algorithm provides the best performance while respecting the frequency specifica-tions of the IEEE 802.11a standard. Thereafter, TR method has been evaluated experimentally in the presence of a commercial PA (SZP-2026Z) and using a measurement bench. It is shown that the TR method improves the quality of service (QoS), with 18% reduction in PA power consumption. The experimental study has resulted to choosing a realistic PA model consider-ing memory effects. This PA model has been integrated into a SISO simulation chain includ-ing also a realistic channel model. This chain is used to evaluate the TR method performances under realistic transmission conditions. Finally, we propose to apply the TR method in a closed-loop MIMO-OFDM chain dedicated to the transmission of scalable multimedia con-tent in a realistic context with the IEEE 802.1n standard. This study presents a new contribu-tion of the TR method evaluation to improve the visual quality of the JPWL transmitted imag-es, considering in the same time the multimedia content, the PA nonlinearity and the channel transmission distortions.
20

Transmission de multimédia dans les réseaux sans fil à qualité de service garantie / Multimedia transmission in wireless network with QoS guarantee

Kambou, Samy Jacques André 08 November 2016 (has links)
Cette thèse s'intéresse aux stratégies de transmission de contenu multimédia des réseaux sans fil. L'intérêt d'une stratégie repose sur sa capacité à gérer les ressources selon les objectifs des applications visées. On propose ainsi un schéma de transmission, qui garantit la qualité de service (QdS), quelles que soient les conditions du canal et suivant les spécificités du contenu multimédia. On exploite pour cela les diversités (spatiales, fréquentielles, etc.) du canal radio. A ce titre, l'association MIMO-OFDM apparaît comme une solution idéale pour accroitre les performances du système. On propose ainsi un système MIMO-OFDMA, qui intègre des stratégies inter-couches. Celles-ci se basent sur des techniques d'adaptation de lien pour régler dynamiquement les paramètres du système. On développe en premier un schéma inter-couches PHY 1 APPL, associé à un système MIMO-OFDM mono-utilisateur, qui transmet une vidéo H.264/SVC. L'adaptation de lien permet de définir le jeu de paramètres optimaux, qui minimise la distorsion de la vidéo reçue. On introduit ainsi une politique d'optimisation sous contraintes de puissance et de taux d'erreurs binaires. Pour tenir compte d'aspects de transmission réalistes, on propose un schéma inter-couches PHY/MAC, dédié à un système MIMO-OFDMA, multi-utilisateurs et multi-services. Ce dernier associe un algorithme d'ordonnancement, au paramétrage optimal, pour fournir au maximum d'utilisateurs des débits utiles respectant les exigences des services demandés. Enfin, on combine les deux premières solutions pour définir les paramètres optimaux minimisant la distorsion de la vidéo reçue par utilisateur, tout en garantissant la QdS des autres services. / This thesis focuses on the transmission strategies of the multimedia content in wireless networks. The advantage of a such strategy is its ability to manage the resources, according to the objectives of the targeted applications. We propose a transmission scheme, which guarantees the quality of service (QoS), depending on the channel state information and on the multimedia content specifications. We take advantage of the radio channel diversities (spatial, frequency, etc.). ln fact, the association of MIMO and OFDM techniques appears as effective solution to increase the system performance. For this reason, we propose a MIMO-OFDMA system, which considers cross-layer srtategies based on link adaptation schemes to dynamically adjust the system parameters. Firstly, we develop a PHY/APPL cross-layer strategy, dedicated to a single user of a MIMO-OFDMA system, which transmits an H.264/SVC video. The Iink adaptation scheme allows to define the optimum parameters, which minimize the end-ta-end video distortion by using an optimization algorithm under power and bit error rate constraints. To consider the realistic transmission aspects, we propose a PHY/MAC cross-layer strategy, dedicated to a multi-user, multi-service, MIMOOFDMA system. This scheme combines a scheduling policy with optimal parameterization to provide a satisfied troughput to a maximum number of users, acheiving the required services. Finally, the first two solutions are combined to determine the optimal parameters which minimize the end-ta-end distortion of the received video by user, and also acheive QoS requirements of the other services.

Page generated in 0.0612 seconds