• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 66
  • 12
  • Tagged with
  • 195
  • 195
  • 84
  • 75
  • 74
  • 73
  • 50
  • 45
  • 40
  • 39
  • 38
  • 31
  • 31
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

On quality of experience (QoE) for multimedia services in communication ecosystem / Sur la qualité de l'expérience (QoE) pour les services multimédias dans l'écosystème de la communication

Laghari, Khalil ur Rehman 30 April 2012 (has links)
Aujourd'hui, la satisfaction du client et la joie deviennent les principaux différenciateurs pour évaluer l'efficacité des opérateurs télécoms et les fournisseurs de services. Dans ce marché concurrentiel, la mauvaise qualité de l'expérience (QoE) conduit à une réaction en chaîne de la parole négative de la bouche, pousser les clients dans les bras de concurrents en attente. Par conséquent, il est important pour les fournisseurs de services pour assurer la qualité supérieure de l'expérience afin d'éviter la déloyauté clientèle et la réputation négative. QoE est une émergence rapide multi-disciplinaire discipline axée sur la compréhension globale des exigences de qualité de l'homme sous différents angles tels que la technologie, des affaires et contexte d'utilisation. Le premier défi et avant tout est de comprendre comment différentes caractéristiques qui influencent liés à l'activité, la technologie, et le comportement influence du contexte humain. Dans cette thèse, les premiers travaux répond à ce défi de comprendre l'influence des domaines disparates sur QoE. Un modèle d'interaction QoE consolidée est proposé qui relie les domaines disparates (humains, des affaires, la technologie, et le contexte) pour comprendre la qualité globale de l'homme de l'expérience requise. Puis la taxonomie est présenté pour le modèle d'interaction QoE. Deuxième contribution dans cette thèse est basé sur le premier et son principal objectif est de capturer et analyser des données QoE à travers des études de l'utilisateur. Sur la base de données de l'utilisateur, l'influence des paramètres technologiques, contextuelles et d'affaires de plus de QoE sont évalués. Différents services multimédias ont été sélectionnés pour l'étude d'utilisateur tels que le service de streaming vidéo, la téléphonie (VoIP et PSTN), et service de téléconférence audio 3D. Selon le service multimédia, différents aspects ont été considérés lors de chaque étude sur les utilisateurs telles que les types de paramètres de service (QoS multimédia, le contenu, le contexte), les types de mesures (QoE subjective, objectif cognitif ou les deux), les caractéristiques de l'homme (âge, sexe, etc) , et les rôles de l'homme (l'utilisateur ou le client). Ces résultats aident à comprendre le lien entre QoE et d'autres domaines d'influence. La troisième contribution est basée sur les travaux en cours d'élaboration QoE des outils basés sur des services de streaming vidéo. Deux outils basés sur QoE pour l'évaluation des services multimédias ont été présentés dans cette thèse, leurs principales fonctions consistent à saisir, analyser et rapporter métriques QoE en temps réel. Ces outils sont utiles pour QoE mesure en temps réel de paramètres QoE / Today, the fulfillment of customer demands and user experience requirements are becoming the main differentiators for gauging the effectiveness of telecom operators and service providers. In this competitive market, the poor Quality of Experience (QoE) leads to a chain reaction of negative word of mouth, pushing customers into the arms of waiting competitors. Therefore it is important for service providers to ensure superior quality of experience in order to avoid customer disloyalty and negative reputation. QoE is a fast emerging multi-disciplinary field focused on understanding overall human quality requirements from different angles such as technology, business and context of use. The first and foremost challenge is to understand how different influencing characteristics related to business, technology, and context influence human behavior. In this thesis, initial work addresses this challenge of understanding the influence of disparate domains over QoE. A consolidated QoE interaction model is proposed which links disparate domains (human, business, technology, and context) to understand overall human quality of experience requirements. Then taxonomy is presented for QoE interaction model. Second contribution in this thesis is based on the first and its main objective is to capture and analyze QoE data through user studies. Based on user data, the influence of technological, contextual and business parameters over QoE are evaluated. Different multimedia services were selected for user study such as video streaming service, telephony (VoIP and PSTN), and 3D audio teleconferencing service. Depending upon multimedia service, different aspects were considered during each user study such as types of multimedia service parameters (QoS, content, context), the types of QoE metrics (subjective, objective cognitive or both), human characteristics (age, gender etc), and human roles (user, or customer). These findings help in understanding the link between QoE and other influencing domains. The third contribution is based upon ongoing work of developing QoE based tools for video streaming services. Two QoE based tools for the assessment of multimedia services have been presented in this thesis, their main functions are to capture, analyze and report QoE metrics in real time. These QoE tools are useful for real time measurement of QoE metrics
52

L’impact de la culture nationale sur la perception d’une banque à l'égard de la qualité du service : Le cas du secteur bancaire en Serbie / The impact of national culture on the bank’s perception towards service quality : The case of banking sector in Serbia

Hamzagic, Enes 29 November 2019 (has links)
Secteur bancaire en Serbie est souvent vu comme un phénomène de groupe, ce qui peut influencer les individus qui en font partie. La perception individuelle, les valeurs et les pensées sont souvent influencées par le contexte culturel dans lequel nous habitons. Les valeurs représentent un certain type de système qui influence la manière dont nous générons et recevons certaines informations, qui motive nos actions et qui fait que nous adoptons un modèle comportemental. Elles nous différencient d’autres systèmes de valeur. L’étude a pour but d’enquêter sur les effets de la culture nationale sur la perception des salariés dans les banques serbes à l'égard de la qualité du service. L’étude inclue une analyse documentaire de la culture générale, de la culture nationale ainsi que des dimensions culturelles. Elle comprend également la culture des organisations et la qualité du service, tout en explorant des lacunes de la littérature, ce qui préconise la réalisation de recherches plus approfondies. Afin de combler les lacunes, un modèle de recherche a été développé. Ce dernier a illustré une relation possible entre les dimensions de la culture nationale et celles du service bancaire de qualité. Le modèle a été utilisé comme cadre de référence au cours de la recherche sur le terrain. Cette recherche empirique a été menée dans huit banques en Serbie. Les principaux résultats obtenus indiquent qu’il existe une influence majeure de la culture nationale sur la qualité du service bancaire. Aussi, l'étude a révélé que les banques en soi influencent la perception globale qu'a l'employé du service bancaire de qualité. / Culture is often seen as a group phenomenon, which influences individuals in it. The individual’s perception, values and thoughts are often influenced by the cultural context in which they are living in. The values represent certain type of system, which influences how we generate and receive certain information, motivates our actions and behavioral pattern, and differentiate us from the members of other value systems. This study investigates the effect of national culture on the employee’s perception in Serbian banks, towards the service quality. The study includes a literature review about culture in general, national culture and cultural dimensions, organizational culture, service quality, exploring gaps in the literature which calls for further research. In addressing one of the gaps, a research model has been developed, which illustrated the possible relationship between the national culture dimensions and bank’s service quality dimensions. The model has been utilized as framework and guided us during the empirical research. The empirical research was conducted in eight banks in Serbia. The main findings suggest that there is significant influence of national culture on bank’s service quality. Secondly, study found that banks per se have influence on employee’s perception regarding bank’s service quality.
53

Gestion coopérative de la qualité de service dans les applications multimédias : spécification et simulation

Mekouar, Loubna January 1998 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
54

Design optimal de réseau multipoint survivable

Ould Ebede, Mohamed January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
55

Élaboration et validation d'un outil diagnostique francophone destiné à mesurer l'orientation-client des entreprises

Ouellet, Claudine 20 April 2018 (has links)
Alore que le concept d'orientation-client représente de nombreux avantages pour une entreprise, il n'existe pas, à notre connaissance, d'échelle francophone pour en mesurer la progression ou permettre d'identifier les points à améliorer. De plus, les deux principales échelles anglophones utilisées actuellement font l'objet de critiques dans la littérature. L'objectif de cette recherche consistait donc à élaborer et à valider une échelle auto-diagnostique francophone de l'orientation-client. Pour ce faire, une démarche a été entreprise, impliquant notamment la définition opérationnelle du construit à mesurer, la rédaction d'un bassin initial d'items et l'analyse des qualités psychométriques de l'échelle. De plus, une première étape de validation a été effectuée. La collecte des données destinées à tester la nouvelle échelle a été effectuée à l'aide d'un questionnaire électronique auto-administré auprès de 78 gestionnaires. Les résultats indiquent que l'échelle possède des qualités psychométriques appréciables.
56

Allocation optimale des ressources pour les applications et services de grille de calcul

Abdelhanine, Filali January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
57

Design and quality of service of mixed criticality systems in embedded architectures based on Network-on-Chip (NoC) / Dimensionnement et Qualité de Service pour les systèmes à criticité mixte dans les architectures embarquées à base de Network on Chip (NoC)

Papastefanakis, Ermis 28 November 2017 (has links)
L'évolution de Systems-on-Chip (SoCs) est rapide et le nombre des processeurs augmente conduisant à la transition des les plates-formes Multi-core vers les Manycore. Dans telles plates-formes, l'architecture d'interconnexion a également décalé des bus traditionnels vers les Réseaux sur puce (NoC) afin de faire face à la mise en échelle. Les NoC permettent aux processeurs d'échanger des informations avec la mémoire et les périphériques lors de l'exécution d'une tâche et d'effectuer plusieurs communications en parallèle. Les plates-formes basées sur un NoC sont aussi présentes dans des systèmes embarqués, caractérisés par des exigences comme la prédictibilité, la sécurité et la criticité mixte. Afin de fournir telles fonctionnalités dans les plates-formes commerciales existantes, il faut prendre en considération le NoC qui est un élément clé ayant un impact important sur les performances d'un SoC. Une tâche échange des informations à travers du NoC et par conséquent, son temps d'exécution dépend du temps de transmission des flux qu'elle génère. En calculant le temps de transmission de pire cas (WCTT) des flux dans le NoC, une étape est faite vers le calcul du temps d'exécution de pire cas (WCET) d'une tâche. Ceci contribue à la prédictibilité globale du système. De plus, en prenant en compte les politiques d'arbitrage dans le NoC, il est possible de fournir des garanties de sécurité contre des tâches compromises qui pourraient essayer de saturer les ressources du système (attaque DoS). Dans les systèmes critiques de sécurité, une distinction des tâches par rapport à leur niveau de criticité, permet aux tâches de criticité mixte de coexister et d'exécuter en harmonie. De plus, ça permet aux tâches critiques de maintenir leurs temps d'exécution au prix de tâches de faible criticité qui seront ralenties ou arrêtées. Cette thèse vise à fournir des méthodes et des mécanismes dans le but de contribuer aux axes de prédictibilité, de sécurité et de criticité mixte dans les architectures Manycore basées sur Noc. En outre, l'incitation consiste à relever conjointement les défis dans ces trois axes en tenant compte de leur impact mutuel. Chaque axe a été étudié individuellement, mais très peu de recherche prend en compte leur interdépendance. Cette fusion des aspects est de plus en plus intrinsèque dans des domaines tels que Internet-of-Things, Cyber-Physical Systems (CPS), véhicules connectés et autonomes qui gagnent de l'élan. La raison en est leur haut degré de connectivité qui crée une grande surface d'exposition ainsi que leur présence croissante qui rend l'impact des attaques sévère et visible. Les contributions de cette thèse consistent en une méthode pour fournir une prédictibilité aux flux dans le NoC, un mécanisme pour la sécurité du NoC et une boîte à outils pour la génération de trafic utilisée pour l'analyse comparative. La première contribution est une adaptation de l'approche de la trajectoire traditionnellement utilisée dans les réseaux avioniques (AFDX) pour calculer le WCET. Dans cette thèse, nous identifions les différences et les similitudes dans l'architecture NoC et modifions l'approche de la trajectoire afin de calculer le WCTT des flux NoC. La deuxième contribution est un mécanisme qui permet de détecter les attaques de DoS et d'atténuer leur impact dans un ensemble des flux de criticité mixte. Plus précisément, un mécanisme surveille le NoC et lors de la détection d'un comportement anormal, un deuxième mécanisme d'atténuation s'active. Ce dernier applique des limites de trafic à la source et restreint le taux auquel le NoC est occupé. Cela atténuera l'impact de l'attaque, garantissant la disponibilité des ressources pour les tâches de haute criticité. Finalement NTGEN, est un outil qui peut générer automatiquement des jeux des flux aléatoires mais qui provoquent une occupation NoC prédéterminée. Ces ensembles sont ensuite injectés dans le NoC et les informations sont collectées en fonction de la latence / The evolution of Systems-on-Chip (SoCs) is rapid and the number of processors has increased transitioning from Multi-core to Manycore platforms. In such platforms, the interconnect architecture has also shifted from traditional buses to Networks-on-Chip (NoC) in order to cope with scalability. NoCs allow the processors to exchange information with memory and peripherals during task execution and enable multiple communications in parallel. NoC-based platforms are also present in embedded systems, characterized by requirements like predictability, security and mixed-criticality. In order to enable such features in existing commercial platforms it is necessary to take into consideration the NoC which is a key element with an important impact to a SoC's performance. A task exchanges information through the NoC and as a result, its execution time depends on the transmission time of the flows it generates. By calculating the Worst Case Transmission Time (WCTT) of flows in the NoC, a step is made towards the calculation of the Worst Case Execution Time (WCET) of a task. This contributes to the overall predictability of the system. Similarly by leveraging arbitration and traffic policies in the NoC it is possible to provide security guarantees against compromised tasks that might try to saturate the system's resources (DoS attack). In safety critical systems, a distinction of tasks in relation to their criticality level, allows tasks of mixed criticality to co-exist and execute in harmony. In addtition, it allows critical tasks to maintain their execution times at the cost of tasks of lower criticality that will be either slowed down or stopped. This thesis aims to provide methods and mechanisms with the objective to contribute in the axes of predictability, security and mixed criticality in NoC-based Manycore architectures. In addition, the incentive is to jointly address the challenges in these three axes taking into account their mutual impact. Each axis has been researched individually, but very little research takes under consideration their interdependence. This fusion of aspects is becoming more and more intrinsic in fields like the Internet-of-Things, Cyber-Physical Systems (CPSs), connected and autonomous vehicles which are gaining momentum. The reason being their high degree of connectivity which is creates great exposure as well as their increasing presence which makes attacks severe and visible. The contributions of this thesis consist of a method to provide predictability to a set of flows in the NoC, a mechanism to provide security properties to the NoC and a toolkit for traffic generation used for benchmarking. The first contribution is an adaptation of the trajectory approach traditionally used in avionics networks (AFDX) to calculate WCET. In this thesis, we identify the differences and similarities in NoC architecture and modify the trajectory approach in order to calculate the WCTT of NoC flows. The second contribution is a mechanism that detects DoS attacks and mitigates their impact in a mixed criticality set of flows. More specifically, a monitor mechanism will detect abnormal behavior, and activate a mitigation mechanism. The latter, will apply traffic shaping at the source and restrict the rate at which the NoC is occupied. This will limit the impact of the attack, guaranteeing resource availability for high criticality tasks. Finally NTGEN, is a toolkit that can automatically generate random sets of flows that result to a predetermined NoC occupancy. These sets are then injected in the NoC and information is collected related to latency
58

Allocation dynamique des ressources et gestion de la qualité de service dans la virtualisation des réseaux / Dynamic resource allocation and quality of service management in Network Virtualization

Seddiki, Mohamed Said 14 April 2015 (has links)
Bien qu'Internet soit considéré comme le grand succès de ces dernières années, il est devenu une infrastructure critique à cause de l'absence de changements dans le réseau cœur et de la rigidité des équipements déployés. La mise en place et le déploiement des nouveaux services réseau sont devenus difficiles et coûteux. La virtualisation des réseaux a été présentée comme un nouveau paradigme pour palier aux problèmes de l’architecture actuelle de l'Internet. Dans ce travail de thèse, nous présentons la virtualisation des réseaux et les réseaux définis par logiciels (SDN) comme solution avec laquelle les fournisseurs de services peuvent offrir, au travers des réseaux virtuels (VN), des nouveaux services aux utilisateurs avec une meilleure qualité de service, tout en optimisant l'utilisation des ressources réseaux physiques. La première contribution consiste à démontrer le potentiel de SDN dans la gestion de la QoS dans le contexte d’un réseau domestique virtualisé. Nous proposons et implémentons le mécanisme ''FlowQoS'' qui peut être déployé par un fournisseur d’accès Internet au niveau de la boucle locale ou bien dans la passerelle domestique. Les mesures des performances montrent que cette solution permet de partager la bande passante entre plusieurs applications selon la configuration définie par l’utilisateur pour garantir la QoS pour chaque trafic actif. La seconde contribution est une modélisation, par la théorie des jeux, de l’interaction entre les fournisseurs de services et les fournisseurs de l’infrastructure pour le partage dynamique de l’infrastructure physique entre plusieurs VN avec différents besoins en QoS. Il s'agit d'un ensemble de jeux non-coopératifs pour modéliser la phase de négociation et celle de l’allocation dynamique des nœuds et des liens physiques pour chaque VN déployé. La troisième contribution porte sur une approche prédictive qui permet d’offrir un contrôle adaptatif de l’allocation de bande passante dans le but de réduire les délais des paquets d'un VN sur chaque lien physique. Ces deux dernières contributions offrent des modèles de partage dynamique des ressources d’une infrastructure physique tout en garantissant la QoS pour chaque VN / Internet has been successful in the recent years. The critical infrastructure of the internet has become stagnant due to the absence of changes in the core networks and stiffness of deployed equipment. It has become difficult and expensive to deploy new network services. Network virtualization is a new paradigm to overcome this problem. In this thesis, we present network virtualization and Software Defined Networking (SDN) as a solution that can be used by service providers. It enables them to provide new services to users through virtual networks (VNs) with better quality of service while optimizing the use of physical network resources. Firstly, we demonstrate the potential of SDN in the QoS management ofa virtualized home network (VN). We propose and implement ''FlowQoS'', a mechanism that can be deployed by an Internet Service Provider in the last-mile hop or in the home gateway. Performance measurements show that this solution can share bandwidth between applications according to user-defined configuration to guarantee QoS for each active traffic. The second contribution is modeling the interaction between service providers and infrastructure providers using game theoretic framework to offer dynamic sharing of physical infrastructure across multiple VN with different QoS requirements. We present a set of non-cooperative games to model the negotiation phase and the dynamic allocation of nodes and physical links for each deployed VN. Finally we focus on a predictive approach that allows an adaptive control of bandwidth allocation in order to reduce the packet delays for a given VN on each physical link. The last two contributions offer dynamic sharing models of physical infrastructure resources while guaranteeing the QoS for each VN
59

Network architectures and energy efficiency for high performance data centers / Architectures réseaux et optimisation d'énergie pour les centres de données massives

Baccour, Emna 30 June 2017 (has links)
L’évolution des services en ligne et l’avènement du big data ont favorisé l’introduction de l’internet dans tous les aspects de notre vie : la communication et l’échange des informations (exemple, Gmail et Facebook), la recherche sur le web (exemple, Google), l’achat sur internet (exemple, Amazon) et le streaming vidéo (exemple, YouTube). Tous ces services sont hébergés sur des sites physiques appelés centres de données ou data centers qui sont responsables de stocker, gérer et fournir un accès rapide à toutes les données. Tous les équipements constituants le système d’information d’une entreprise (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc) peuvent être regroupés dans ces centres de données. Cette évolution informatique et technologique a entrainé une croissance exponentielle des centres de données. Cela pose des problèmes de coût d’installation des équipements, d’énergie, d’émission de chaleur et de performance des services offerts aux clients. Ainsi, l’évolutivité, la performance, le coût, la fiabilité, la consommation d’énergie et la maintenance sont devenus des défis importants pour ces centres de données. Motivée par ces défis, la communauté de recherche a commencé à explorer de nouveaux mécanismes et algorithmes de routage et des nouvelles architectures pour améliorer la qualité de service du centre de données. Dans ce projet de thèse, nous avons développé de nouveaux algorithmes et architectures qui combinent les avantages des solutions proposées, tout en évitant leurs limitations. Les points abordés durant ce projet sont: 1) Proposer de nouvelles topologies, étudier leurs propriétés, leurs performances, ainsi que leurs coûts de construction. 2) Conception des algorithmes de routage et des modèles pour réduire la consommation d’énergie en prenant en considération la complexité, et la tolérance aux pannes. 3) Conception des protocoles et des systèmes de gestion de file d’attente pour fournir une bonne qualité de service. 4) Évaluation des nouveaux systèmes en les comparants à d’autres architectures et modèles dans des environnements réalistes. / The increasing trend to migrate applications, computation and storage into more robust systems leads to the emergence of mega data centers hosting tens of thousands of servers. As a result, designing a data center network that interconnects this massive number of servers, and providing efficient and fault-tolerant routing service are becoming an urgent need and a challenge that will be addressed in this thesis. Since this is a hot research topic, many solutions are proposed like adapting new interconnection technologies and new algorithms for data centers. However, many of these solutions generally suffer from performance problems, or can be quite costly. In addition, devoted efforts have not focused on quality of service and power efficiency on data center networks. So, in order to provide a novel solution that challenges the drawbacks of other researches and involves their advantages, we propose to develop new data center interconnection networks that aim to build a scalable, cost-effective, high performant and QoS-capable networking infrastructure. In addition, we suggest to implement power aware algorithms to make the network energy effective. Hence, we will particularly investigate the following issues: 1) Fixing architectural and topological properties of the new proposed data centers and evaluating their performances and capacities of providing robust systems under a faulty environment. 2) Proposing routing, load-balancing, fault-tolerance and power efficient algorithms to apply on our architectures and examining their complexity and how they satisfy the system requirements. 3) Integrating quality of service. 4) Comparing our proposed data centers and algorithms to existing solutions under a realistic environment. In this thesis, we investigate a quite challenging topic where we intend, first, to study the existing models, propose improvements and suggest new methodologies and algorithms.
60

Cooperation strategies for inter-cell interference mitigation in OFDMA systems / Les stratégies de coopération inter-cellules pour l'atténuation des interférences dans les systèmes OFDMA

Kurda, Reben 18 March 2015 (has links)
Récemment, l'utilisation des réseaux cellulaires a radicalement changé avec l’émergence de la quatrième génération (4G) de systèmes de télécommunications mobiles LTE/LTE-A (Long Term Evolution-Advanced). Les réseaux de générations précédentes (3G), initialement conçus pour le transport de la voix et les données à faible et moyen débits, ont du mal à faire face à l’augmentation accrue du trafic de données multimédia tout en répondant à leurs fortes exigences et contraintes en termes de qualité de service (QdS). Pour mieux répondre à ces besoins, les réseaux 4G ont introduit le paradigme des Réseaux Hétérogènes (HetNet).Les réseaux HetNet introduisent une nouvelle notion d’hétérogénéité pour les réseaux cellulaires en introduisant le concept des smalls cells (petites cellules) qui met en place des antennes à faible puissance d’émission. Ainsi, le réseau est composé de plusieurs couches (tiers) qui se chevauchent incluant la couverture traditionnelle macro-cellulaire, les pico-cellules, les femto-cellules, et les relais. Outre les améliorations des couvertures radio en environnements intérieurs, les smalls cells permettent d’augmenter la capacité du système par une meilleure utilisation du spectre et en rapprochant l’utilisateur de son point d’accès au réseau. Une des conséquences directes de cette densification cellulaire est l’interférence générée entre les différentes cellules des diverses couches quand ces dernières réutilisent les mêmes fréquences. Aussi, la définition de solutions efficaces de gestion des interférences dans ce type de systèmes constitue un de leurs défis majeurs. Cette thèse s’intéresse au problème de gestion des interférences dans les systèmes hétérogènes LTE-A. Notre objectif est d’apporter des solutions efficaces et originales au problème d’interférence dans ce contexte via des mécanismes d’ajustement de puissance des petites cellules. Nous avons pour cela distingués deux cas d’étude à savoir un déploiement à deux couches macro-femtocellules et macro-picocellules. Dans la première partie dédiée à un déploiement femtocellule et macrocellule, nous concevons une stratégie d'ajustement de puissance des femtocellules assisté par la macrocellule et qui prend en compte les performances des utilisateurs des femtocells tout en atténuant l'interférence causée aux utilisateurs des macrocellules sur leurs liens montants. Cette solution offre l’avantage de la prise en compte de paramètres contextuels locaux aux femtocellules (tels que le nombre d’utilisateurs en situation de outage) tout en considérant des scénarios de mobilité réalistes. Nous avons montré par simulation que les interférences sur les utilisateurs des macrocellules sont sensiblement réduites et que les femtocellules sont en mesure de dynamiquement ajuster leur puissance d'émission pour atteindre les objectifs fixés en termes d’équilibre entre performance des utilisateurs des macrocellules et celle de leurs propres utilisateurs. Dans la seconde partie de la thèse, nous considérons le déploiement de picocellules sous l'égide de la macrocellule. Nous nous sommes intéressés ici aux solutions d’extension de l’aire picocellulaire qui permettent une meilleure association utilisateur/cellule permettant de réduire l’interférence mais aussi offrir une meilleure efficacité spectrale. Nous proposons donc une approche basée sur un modèle de prédiction de la mobilité des utilisateurs qui permet de mieux ajuster la proportion de bande passante à partager entre la macrocellule et la picocellule en fonction de la durée de séjour estimée de ces utilisateurs ainsi que de leur demandes en bande passante. Notre solution a permis d’offrir un bon compromis entre les débits réalisables de la Macro et des picocellules. / Recently the use of modern cellular networks has drastically changed with the emerging Long Term Evolution Advanced (LTE-A) technology. Homogeneous networks which were initially designed for voice-centric and low data rates face unprecedented challenges for meeting the increasing traffic demands of high data-driven applications and their important quality of service requirements. Therefore, these networks are moving towards the so called Heterogeneous Networks (HetNets). HetNets represent a new paradigm for cellular networks as their nodes have different characteristics such as transmission power and radio frequency coverage area. Consequently, a HetNet shows completely different interference characteristics compared to homogeneous deployment and attention must be paid to these disparities when different tiers are collocated together. This is mostly due to the potential spectrum frequency reuse by the involved tiers in the HetNets. Hence, efficient inter-cell interference mitigation solutions in co-channel deployments of HetNets remain a challenge for both industry and academic researchers. This thesis focuses on LTE-A HetNet systems which are based on Orthogonal Frequency Division Multiplexing Access (OFDMA) modulation. Our aim is to investigate the aggressive interference issue that appears when different types of base stations are jointly deployed together and especially in two cases, namely Macro-Femtocells and Macro-Picocells co-existence. We propose new practical power adjustment solutions for managing inter-cell interference dynamically for both cases. In the first part dedicated to Femtocells and Macrocell coexistence, we design a MBS-assisted femtocell power adjustment strategy which takes into account femtocells users performance while mitigating the inter-cell interference on victim macrocell users. Further, we propose a new cooperative and context-aware interference mitigation method which is derived for realistic scenarios involving mobility of users and their varying locations. We proved numerically that the Femtocells are able to maintain their interference under a desirable threshold by adjusting their transmission power. Our strategies provide an efficient means for achieving the desired level of macrocell/femtocell throughput trade-off. In the second part of the studies where Picocells are deployed under the umbrella of the Macrocell, we paid a special attention and efforts to the interference management in the situation where Picocells are configured to set up a cell range expansion. We suggest a MBS-assisted collaborative scheme powered by an analytical model to predict the mobility of Macrocell users passing through the cell range expansion area of the picocell. Our goal is to adapt the muting ratio ruling the frequency resource partitioning between both tiers according to the mobility behavior of the range-expanded users, thereby providing an efficient trade-off between Macrocell and Picocell achievable throughputs.

Page generated in 0.0668 seconds