• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 123
  • 72
  • 12
  • Tagged with
  • 209
  • 209
  • 93
  • 81
  • 75
  • 73
  • 51
  • 45
  • 41
  • 39
  • 39
  • 34
  • 33
  • 31
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Élaboration et validation d'un outil diagnostique francophone destiné à mesurer l'orientation-client des entreprises

Ouellet, Claudine 20 April 2018 (has links)
Alore que le concept d'orientation-client représente de nombreux avantages pour une entreprise, il n'existe pas, à notre connaissance, d'échelle francophone pour en mesurer la progression ou permettre d'identifier les points à améliorer. De plus, les deux principales échelles anglophones utilisées actuellement font l'objet de critiques dans la littérature. L'objectif de cette recherche consistait donc à élaborer et à valider une échelle auto-diagnostique francophone de l'orientation-client. Pour ce faire, une démarche a été entreprise, impliquant notamment la définition opérationnelle du construit à mesurer, la rédaction d'un bassin initial d'items et l'analyse des qualités psychométriques de l'échelle. De plus, une première étape de validation a été effectuée. La collecte des données destinées à tester la nouvelle échelle a été effectuée à l'aide d'un questionnaire électronique auto-administré auprès de 78 gestionnaires. Les résultats indiquent que l'échelle possède des qualités psychométriques appréciables.
62

Allocation optimale des ressources pour les applications et services de grille de calcul

Abdelhanine, Filali January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
63

Performances of LTE networks / Performances des Réseaux LTE

Iturralde Ruiz, Geovanny Mauricio 02 October 2012 (has links)
Poussé par la demande croissante de services à haut débit sans fil, Long Term Evolution (LTE) a émergé comme une solution prometteuse pour les communications mobiles. Dans plusieurs pays à travers le monde, la mise en oeuvre de LTE est en train de se développer. LTE offre une architecture tout-IP qui fournit des débits élevés et permet une prise en charge efficace des applications de type multimédia. LTE est spécifié par le 3GPP ; cette technologie fournit une architecture capable de mettre en place des mécanismes pour traiter des classes de trafic hétérogènes comme la voix, la vidéo, les transferts de fichier, les courriers électroniques, etc. Ces classes de flux hétérogènes peuvent être gérées en fonction de la qualité de service requise mais aussi de la qualité des canaux et des conditions environnementales qui peuvent varier considérablement sur une courte échelle de temps. Les standards du 3GPP ne spécifient pas l’algorithmique de l’allocation des ressources du réseau d’accès, dont l’importance est grande pour garantir performance et qualité de service (QoS). Dans cette thèse, nous nous focalisons plus spécifiquement sur la QoS de LTE sur la voie descendante. Nous nous concentrons alors sur la gestion des ressources et l’ordonnancement sur l’interface radio des réseaux d’accès. Dans une première partie, nous nous sommes intéressés à des contextes de macro-cellules. Le premier mécanisme proposé pour l’allocation des ressources combine une méthode de jetons virtuels et des ordonnanceurs opportunistes. Les performances obtenues sont très bonnes mais n’assurent pas une très bonne équité. Notre seconde proposition repose sur la théorie des jeux, et plus spécifiquement sur la valeur de Shapley, pour atteindre un haut niveau d’équité entre les différentes classes de services au détriment de la qualité de service. Cela nous a poussé, dans un troisième mécanisme, à combiner les deux schémas. La deuxième partie de la thèse est consacrée aux femto-cellules (ou femtocells) qui offrent des compléments de couverture appréciables. La difficulté consiste alors à étudier et à minimiser les interférences. Notre premier mécanisme d’atténuation des interférences est fondé sur le contrôle de la puissance de transmission. Il fonctionne en utilisant la théorie des jeux non coopératifs. On effectue une négociation constante entre le débit et les interférences pour trouver un niveau optimal de puissance d’émission. Le second mécanisme est centralisé et utilise une approche de division de la bande passante afin d’obliger les femtocells à ne pas utiliser les mêmes sous-bandes évitant ainsi les interférences. Le partage de bande passante et l’allocation sont effectués en utilisant sur la théorie des jeux (valeur de Shapley) et en tenant compte du type d’application. Ce schéma réduit les interférences considérablement. Tous les mécanismes proposés ont été testés et évalués dans un environnement de simulation en utilisant l’outil LTE-Sim au développement duquel nous avons contribué. / Driven by the growing demand for high-speed broadband wireless services, Long term Evolution (LTE) technology has emerged as a competitive alternative to mobile communications solution. In several countries around the world, the implementation of LTE has started. LTE offers an IP-based framework that provides high data rates for multimedia applications. Moreover, based on the 3GPP specifications, the technology provides a set of built in mechanisms to support heterogeneous classes of traffic including data, voice and video, etc. Supporting heterogeneous classes of services means that the traffic is highly diverse and has distinct QoS parameters, channel and environmental conditions may vary dramatically on a short time scale. The 3GPP specifications leave unstandardized the resource management and scheduling mechanisms which are crucial components to guarantee the QoS performance for the services. In this thesis, we evaluate the performance and QoS in LTE technology. Moreover, our research addresses the resource management and scheduling issues on the wireless interface. In fact, after surveying, classifying and comparing different scheduling mechanisms, we propose three QoS mechanisms for resource allocation in macrocell scenarios focused on real time services and two mechanisms for interference mitigation in femtocell scenarios taking into account the QoS of real time services. Our first proposed mechanism for resource allocation in macrocell scenarios combines the well known virtual token (or token buckets) method with opportunistic schedulers, our second scheme utilizes game theory, specifically the Shapley value in order to achieve a higher fairness level among classes of services and our third mechanism combines the first and the second proposed schemes. Our first mechanism for interference mitigation in femtocell scenarios is power control based and works by using non cooperative games. It performs a constant bargain between throughput and SINR to find out the optimal transmit power level. The second mechanism is centralised, it uses a bandwidth division approach in order to not use the same subbands to avoid interference. The bandwidth division and assignation is performed based on game theory (Shapley value) taking into account the application bitrate . This scheme reduces interference considerably and shows an improvement compared to other bandwidth division schemes. All proposed mechanism are performed in a LTE simulation environment. several constraints such as throughput, Packet Loss Ratio, delay, fairness index, SINR are used to evaluate the efficiency of our schemes
64

Design and quality of service of mixed criticality systems in embedded architectures based on Network-on-Chip (NoC) / Dimensionnement et Qualité de Service pour les systèmes à criticité mixte dans les architectures embarquées à base de Network on Chip (NoC)

Papastefanakis, Ermis 28 November 2017 (has links)
L'évolution de Systems-on-Chip (SoCs) est rapide et le nombre des processeurs augmente conduisant à la transition des les plates-formes Multi-core vers les Manycore. Dans telles plates-formes, l'architecture d'interconnexion a également décalé des bus traditionnels vers les Réseaux sur puce (NoC) afin de faire face à la mise en échelle. Les NoC permettent aux processeurs d'échanger des informations avec la mémoire et les périphériques lors de l'exécution d'une tâche et d'effectuer plusieurs communications en parallèle. Les plates-formes basées sur un NoC sont aussi présentes dans des systèmes embarqués, caractérisés par des exigences comme la prédictibilité, la sécurité et la criticité mixte. Afin de fournir telles fonctionnalités dans les plates-formes commerciales existantes, il faut prendre en considération le NoC qui est un élément clé ayant un impact important sur les performances d'un SoC. Une tâche échange des informations à travers du NoC et par conséquent, son temps d'exécution dépend du temps de transmission des flux qu'elle génère. En calculant le temps de transmission de pire cas (WCTT) des flux dans le NoC, une étape est faite vers le calcul du temps d'exécution de pire cas (WCET) d'une tâche. Ceci contribue à la prédictibilité globale du système. De plus, en prenant en compte les politiques d'arbitrage dans le NoC, il est possible de fournir des garanties de sécurité contre des tâches compromises qui pourraient essayer de saturer les ressources du système (attaque DoS). Dans les systèmes critiques de sécurité, une distinction des tâches par rapport à leur niveau de criticité, permet aux tâches de criticité mixte de coexister et d'exécuter en harmonie. De plus, ça permet aux tâches critiques de maintenir leurs temps d'exécution au prix de tâches de faible criticité qui seront ralenties ou arrêtées. Cette thèse vise à fournir des méthodes et des mécanismes dans le but de contribuer aux axes de prédictibilité, de sécurité et de criticité mixte dans les architectures Manycore basées sur Noc. En outre, l'incitation consiste à relever conjointement les défis dans ces trois axes en tenant compte de leur impact mutuel. Chaque axe a été étudié individuellement, mais très peu de recherche prend en compte leur interdépendance. Cette fusion des aspects est de plus en plus intrinsèque dans des domaines tels que Internet-of-Things, Cyber-Physical Systems (CPS), véhicules connectés et autonomes qui gagnent de l'élan. La raison en est leur haut degré de connectivité qui crée une grande surface d'exposition ainsi que leur présence croissante qui rend l'impact des attaques sévère et visible. Les contributions de cette thèse consistent en une méthode pour fournir une prédictibilité aux flux dans le NoC, un mécanisme pour la sécurité du NoC et une boîte à outils pour la génération de trafic utilisée pour l'analyse comparative. La première contribution est une adaptation de l'approche de la trajectoire traditionnellement utilisée dans les réseaux avioniques (AFDX) pour calculer le WCET. Dans cette thèse, nous identifions les différences et les similitudes dans l'architecture NoC et modifions l'approche de la trajectoire afin de calculer le WCTT des flux NoC. La deuxième contribution est un mécanisme qui permet de détecter les attaques de DoS et d'atténuer leur impact dans un ensemble des flux de criticité mixte. Plus précisément, un mécanisme surveille le NoC et lors de la détection d'un comportement anormal, un deuxième mécanisme d'atténuation s'active. Ce dernier applique des limites de trafic à la source et restreint le taux auquel le NoC est occupé. Cela atténuera l'impact de l'attaque, garantissant la disponibilité des ressources pour les tâches de haute criticité. Finalement NTGEN, est un outil qui peut générer automatiquement des jeux des flux aléatoires mais qui provoquent une occupation NoC prédéterminée. Ces ensembles sont ensuite injectés dans le NoC et les informations sont collectées en fonction de la latence / The evolution of Systems-on-Chip (SoCs) is rapid and the number of processors has increased transitioning from Multi-core to Manycore platforms. In such platforms, the interconnect architecture has also shifted from traditional buses to Networks-on-Chip (NoC) in order to cope with scalability. NoCs allow the processors to exchange information with memory and peripherals during task execution and enable multiple communications in parallel. NoC-based platforms are also present in embedded systems, characterized by requirements like predictability, security and mixed-criticality. In order to enable such features in existing commercial platforms it is necessary to take into consideration the NoC which is a key element with an important impact to a SoC's performance. A task exchanges information through the NoC and as a result, its execution time depends on the transmission time of the flows it generates. By calculating the Worst Case Transmission Time (WCTT) of flows in the NoC, a step is made towards the calculation of the Worst Case Execution Time (WCET) of a task. This contributes to the overall predictability of the system. Similarly by leveraging arbitration and traffic policies in the NoC it is possible to provide security guarantees against compromised tasks that might try to saturate the system's resources (DoS attack). In safety critical systems, a distinction of tasks in relation to their criticality level, allows tasks of mixed criticality to co-exist and execute in harmony. In addtition, it allows critical tasks to maintain their execution times at the cost of tasks of lower criticality that will be either slowed down or stopped. This thesis aims to provide methods and mechanisms with the objective to contribute in the axes of predictability, security and mixed criticality in NoC-based Manycore architectures. In addition, the incentive is to jointly address the challenges in these three axes taking into account their mutual impact. Each axis has been researched individually, but very little research takes under consideration their interdependence. This fusion of aspects is becoming more and more intrinsic in fields like the Internet-of-Things, Cyber-Physical Systems (CPSs), connected and autonomous vehicles which are gaining momentum. The reason being their high degree of connectivity which is creates great exposure as well as their increasing presence which makes attacks severe and visible. The contributions of this thesis consist of a method to provide predictability to a set of flows in the NoC, a mechanism to provide security properties to the NoC and a toolkit for traffic generation used for benchmarking. The first contribution is an adaptation of the trajectory approach traditionally used in avionics networks (AFDX) to calculate WCET. In this thesis, we identify the differences and similarities in NoC architecture and modify the trajectory approach in order to calculate the WCTT of NoC flows. The second contribution is a mechanism that detects DoS attacks and mitigates their impact in a mixed criticality set of flows. More specifically, a monitor mechanism will detect abnormal behavior, and activate a mitigation mechanism. The latter, will apply traffic shaping at the source and restrict the rate at which the NoC is occupied. This will limit the impact of the attack, guaranteeing resource availability for high criticality tasks. Finally NTGEN, is a toolkit that can automatically generate random sets of flows that result to a predetermined NoC occupancy. These sets are then injected in the NoC and information is collected related to latency
65

Allocation dynamique des ressources et gestion de la qualité de service dans la virtualisation des réseaux / Dynamic resource allocation and quality of service management in Network Virtualization

Seddiki, Mohamed Said 14 April 2015 (has links)
Bien qu'Internet soit considéré comme le grand succès de ces dernières années, il est devenu une infrastructure critique à cause de l'absence de changements dans le réseau cœur et de la rigidité des équipements déployés. La mise en place et le déploiement des nouveaux services réseau sont devenus difficiles et coûteux. La virtualisation des réseaux a été présentée comme un nouveau paradigme pour palier aux problèmes de l’architecture actuelle de l'Internet. Dans ce travail de thèse, nous présentons la virtualisation des réseaux et les réseaux définis par logiciels (SDN) comme solution avec laquelle les fournisseurs de services peuvent offrir, au travers des réseaux virtuels (VN), des nouveaux services aux utilisateurs avec une meilleure qualité de service, tout en optimisant l'utilisation des ressources réseaux physiques. La première contribution consiste à démontrer le potentiel de SDN dans la gestion de la QoS dans le contexte d’un réseau domestique virtualisé. Nous proposons et implémentons le mécanisme ''FlowQoS'' qui peut être déployé par un fournisseur d’accès Internet au niveau de la boucle locale ou bien dans la passerelle domestique. Les mesures des performances montrent que cette solution permet de partager la bande passante entre plusieurs applications selon la configuration définie par l’utilisateur pour garantir la QoS pour chaque trafic actif. La seconde contribution est une modélisation, par la théorie des jeux, de l’interaction entre les fournisseurs de services et les fournisseurs de l’infrastructure pour le partage dynamique de l’infrastructure physique entre plusieurs VN avec différents besoins en QoS. Il s'agit d'un ensemble de jeux non-coopératifs pour modéliser la phase de négociation et celle de l’allocation dynamique des nœuds et des liens physiques pour chaque VN déployé. La troisième contribution porte sur une approche prédictive qui permet d’offrir un contrôle adaptatif de l’allocation de bande passante dans le but de réduire les délais des paquets d'un VN sur chaque lien physique. Ces deux dernières contributions offrent des modèles de partage dynamique des ressources d’une infrastructure physique tout en garantissant la QoS pour chaque VN / Internet has been successful in the recent years. The critical infrastructure of the internet has become stagnant due to the absence of changes in the core networks and stiffness of deployed equipment. It has become difficult and expensive to deploy new network services. Network virtualization is a new paradigm to overcome this problem. In this thesis, we present network virtualization and Software Defined Networking (SDN) as a solution that can be used by service providers. It enables them to provide new services to users through virtual networks (VNs) with better quality of service while optimizing the use of physical network resources. Firstly, we demonstrate the potential of SDN in the QoS management ofa virtualized home network (VN). We propose and implement ''FlowQoS'', a mechanism that can be deployed by an Internet Service Provider in the last-mile hop or in the home gateway. Performance measurements show that this solution can share bandwidth between applications according to user-defined configuration to guarantee QoS for each active traffic. The second contribution is modeling the interaction between service providers and infrastructure providers using game theoretic framework to offer dynamic sharing of physical infrastructure across multiple VN with different QoS requirements. We present a set of non-cooperative games to model the negotiation phase and the dynamic allocation of nodes and physical links for each deployed VN. Finally we focus on a predictive approach that allows an adaptive control of bandwidth allocation in order to reduce the packet delays for a given VN on each physical link. The last two contributions offer dynamic sharing models of physical infrastructure resources while guaranteeing the QoS for each VN
66

Network architectures and energy efficiency for high performance data centers / Architectures réseaux et optimisation d'énergie pour les centres de données massives

Baccour, Emna 30 June 2017 (has links)
L’évolution des services en ligne et l’avènement du big data ont favorisé l’introduction de l’internet dans tous les aspects de notre vie : la communication et l’échange des informations (exemple, Gmail et Facebook), la recherche sur le web (exemple, Google), l’achat sur internet (exemple, Amazon) et le streaming vidéo (exemple, YouTube). Tous ces services sont hébergés sur des sites physiques appelés centres de données ou data centers qui sont responsables de stocker, gérer et fournir un accès rapide à toutes les données. Tous les équipements constituants le système d’information d’une entreprise (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc) peuvent être regroupés dans ces centres de données. Cette évolution informatique et technologique a entrainé une croissance exponentielle des centres de données. Cela pose des problèmes de coût d’installation des équipements, d’énergie, d’émission de chaleur et de performance des services offerts aux clients. Ainsi, l’évolutivité, la performance, le coût, la fiabilité, la consommation d’énergie et la maintenance sont devenus des défis importants pour ces centres de données. Motivée par ces défis, la communauté de recherche a commencé à explorer de nouveaux mécanismes et algorithmes de routage et des nouvelles architectures pour améliorer la qualité de service du centre de données. Dans ce projet de thèse, nous avons développé de nouveaux algorithmes et architectures qui combinent les avantages des solutions proposées, tout en évitant leurs limitations. Les points abordés durant ce projet sont: 1) Proposer de nouvelles topologies, étudier leurs propriétés, leurs performances, ainsi que leurs coûts de construction. 2) Conception des algorithmes de routage et des modèles pour réduire la consommation d’énergie en prenant en considération la complexité, et la tolérance aux pannes. 3) Conception des protocoles et des systèmes de gestion de file d’attente pour fournir une bonne qualité de service. 4) Évaluation des nouveaux systèmes en les comparants à d’autres architectures et modèles dans des environnements réalistes. / The increasing trend to migrate applications, computation and storage into more robust systems leads to the emergence of mega data centers hosting tens of thousands of servers. As a result, designing a data center network that interconnects this massive number of servers, and providing efficient and fault-tolerant routing service are becoming an urgent need and a challenge that will be addressed in this thesis. Since this is a hot research topic, many solutions are proposed like adapting new interconnection technologies and new algorithms for data centers. However, many of these solutions generally suffer from performance problems, or can be quite costly. In addition, devoted efforts have not focused on quality of service and power efficiency on data center networks. So, in order to provide a novel solution that challenges the drawbacks of other researches and involves their advantages, we propose to develop new data center interconnection networks that aim to build a scalable, cost-effective, high performant and QoS-capable networking infrastructure. In addition, we suggest to implement power aware algorithms to make the network energy effective. Hence, we will particularly investigate the following issues: 1) Fixing architectural and topological properties of the new proposed data centers and evaluating their performances and capacities of providing robust systems under a faulty environment. 2) Proposing routing, load-balancing, fault-tolerance and power efficient algorithms to apply on our architectures and examining their complexity and how they satisfy the system requirements. 3) Integrating quality of service. 4) Comparing our proposed data centers and algorithms to existing solutions under a realistic environment. In this thesis, we investigate a quite challenging topic where we intend, first, to study the existing models, propose improvements and suggest new methodologies and algorithms.
67

Cooperation strategies for inter-cell interference mitigation in OFDMA systems / Les stratégies de coopération inter-cellules pour l'atténuation des interférences dans les systèmes OFDMA

Kurda, Reben 18 March 2015 (has links)
Récemment, l'utilisation des réseaux cellulaires a radicalement changé avec l’émergence de la quatrième génération (4G) de systèmes de télécommunications mobiles LTE/LTE-A (Long Term Evolution-Advanced). Les réseaux de générations précédentes (3G), initialement conçus pour le transport de la voix et les données à faible et moyen débits, ont du mal à faire face à l’augmentation accrue du trafic de données multimédia tout en répondant à leurs fortes exigences et contraintes en termes de qualité de service (QdS). Pour mieux répondre à ces besoins, les réseaux 4G ont introduit le paradigme des Réseaux Hétérogènes (HetNet).Les réseaux HetNet introduisent une nouvelle notion d’hétérogénéité pour les réseaux cellulaires en introduisant le concept des smalls cells (petites cellules) qui met en place des antennes à faible puissance d’émission. Ainsi, le réseau est composé de plusieurs couches (tiers) qui se chevauchent incluant la couverture traditionnelle macro-cellulaire, les pico-cellules, les femto-cellules, et les relais. Outre les améliorations des couvertures radio en environnements intérieurs, les smalls cells permettent d’augmenter la capacité du système par une meilleure utilisation du spectre et en rapprochant l’utilisateur de son point d’accès au réseau. Une des conséquences directes de cette densification cellulaire est l’interférence générée entre les différentes cellules des diverses couches quand ces dernières réutilisent les mêmes fréquences. Aussi, la définition de solutions efficaces de gestion des interférences dans ce type de systèmes constitue un de leurs défis majeurs. Cette thèse s’intéresse au problème de gestion des interférences dans les systèmes hétérogènes LTE-A. Notre objectif est d’apporter des solutions efficaces et originales au problème d’interférence dans ce contexte via des mécanismes d’ajustement de puissance des petites cellules. Nous avons pour cela distingués deux cas d’étude à savoir un déploiement à deux couches macro-femtocellules et macro-picocellules. Dans la première partie dédiée à un déploiement femtocellule et macrocellule, nous concevons une stratégie d'ajustement de puissance des femtocellules assisté par la macrocellule et qui prend en compte les performances des utilisateurs des femtocells tout en atténuant l'interférence causée aux utilisateurs des macrocellules sur leurs liens montants. Cette solution offre l’avantage de la prise en compte de paramètres contextuels locaux aux femtocellules (tels que le nombre d’utilisateurs en situation de outage) tout en considérant des scénarios de mobilité réalistes. Nous avons montré par simulation que les interférences sur les utilisateurs des macrocellules sont sensiblement réduites et que les femtocellules sont en mesure de dynamiquement ajuster leur puissance d'émission pour atteindre les objectifs fixés en termes d’équilibre entre performance des utilisateurs des macrocellules et celle de leurs propres utilisateurs. Dans la seconde partie de la thèse, nous considérons le déploiement de picocellules sous l'égide de la macrocellule. Nous nous sommes intéressés ici aux solutions d’extension de l’aire picocellulaire qui permettent une meilleure association utilisateur/cellule permettant de réduire l’interférence mais aussi offrir une meilleure efficacité spectrale. Nous proposons donc une approche basée sur un modèle de prédiction de la mobilité des utilisateurs qui permet de mieux ajuster la proportion de bande passante à partager entre la macrocellule et la picocellule en fonction de la durée de séjour estimée de ces utilisateurs ainsi que de leur demandes en bande passante. Notre solution a permis d’offrir un bon compromis entre les débits réalisables de la Macro et des picocellules. / Recently the use of modern cellular networks has drastically changed with the emerging Long Term Evolution Advanced (LTE-A) technology. Homogeneous networks which were initially designed for voice-centric and low data rates face unprecedented challenges for meeting the increasing traffic demands of high data-driven applications and their important quality of service requirements. Therefore, these networks are moving towards the so called Heterogeneous Networks (HetNets). HetNets represent a new paradigm for cellular networks as their nodes have different characteristics such as transmission power and radio frequency coverage area. Consequently, a HetNet shows completely different interference characteristics compared to homogeneous deployment and attention must be paid to these disparities when different tiers are collocated together. This is mostly due to the potential spectrum frequency reuse by the involved tiers in the HetNets. Hence, efficient inter-cell interference mitigation solutions in co-channel deployments of HetNets remain a challenge for both industry and academic researchers. This thesis focuses on LTE-A HetNet systems which are based on Orthogonal Frequency Division Multiplexing Access (OFDMA) modulation. Our aim is to investigate the aggressive interference issue that appears when different types of base stations are jointly deployed together and especially in two cases, namely Macro-Femtocells and Macro-Picocells co-existence. We propose new practical power adjustment solutions for managing inter-cell interference dynamically for both cases. In the first part dedicated to Femtocells and Macrocell coexistence, we design a MBS-assisted femtocell power adjustment strategy which takes into account femtocells users performance while mitigating the inter-cell interference on victim macrocell users. Further, we propose a new cooperative and context-aware interference mitigation method which is derived for realistic scenarios involving mobility of users and their varying locations. We proved numerically that the Femtocells are able to maintain their interference under a desirable threshold by adjusting their transmission power. Our strategies provide an efficient means for achieving the desired level of macrocell/femtocell throughput trade-off. In the second part of the studies where Picocells are deployed under the umbrella of the Macrocell, we paid a special attention and efforts to the interference management in the situation where Picocells are configured to set up a cell range expansion. We suggest a MBS-assisted collaborative scheme powered by an analytical model to predict the mobility of Macrocell users passing through the cell range expansion area of the picocell. Our goal is to adapt the muting ratio ruling the frequency resource partitioning between both tiers according to the mobility behavior of the range-expanded users, thereby providing an efficient trade-off between Macrocell and Picocell achievable throughputs.
68

Analyse des performances et routage dans les constellations de nano-satellites : modèles et applications pour les régions éloignées / Performance analysis and routing in nanosatellite constellations : models and applications for remote regions

Burlacu, Maria-Mihaela 03 December 2010 (has links)
La réduction des budgets du domaine spatial et les missions scientifiques traditionnelles ayant des coûts et une complexité croissants a amené la communauté scientifique à se concentrer sur les petits satellites qui fournissent non seulement des résultats scientifiques de valeur, mais permettent aussi de nouvelles applications dans le domaine de la télédétection, de la surveillance environnementale et des télécommunications. De plus, le concept de vol en formation de petits satellites est une technologie-clé pour beaucoup de missions spatiales futures, en améliorant la capacité de survie et réduisant le coût des missions. Ce travail de recherche a un double but : la proposition de modèles innovants de constellations de nano-satellites et de nouvelles approches de routage pour les réseaux de nano-satellites. Cette thèse propose et analyse trois modèles de constellations de nano-satellites dénommés NanoDREAM, NanoiCE et NanoSPHERE, qui fournissent des services de télécommunications aux régions éloignées. Le modèle NanoDREAM est conçu pour le Désert Salar de Uyuni en Bolivie, une région qui détient 70% de la réserve mondiale de lithium. Le modèle NanoiCE est destiné aux Régions Polaires, pour satisfaire les besoins de télécommunications de la communauté scientifique. Le modèle NanoSPHERE est conçu pour fournir une couverture globale de la Terre pour un marché de télécommunications concurrentiel. De plus, nous avons proposé une architecture pour le segment terrestre basée sur la technologie sans fil. Cette architecture a été déployée sur la zone d'exploitation du Désert Salar de Uyuni. Ces modèles ont été développés analytiquement et mis ensuite en œuvre dans le simulateur SaVi afin d'identifier la meilleure constellation satisfaisant les requis de la mission en terme de couverture et en réduisant au minimum le nombre de nano-satellites de la constellation. […] / The growth in cost and complexity of traditional scientific missions along with the reduction in space budgets have determined space community to focus on small satellites that not only provide valuable scientific returns, but also allow completely new applications in remote sensing, environmental monitoring and communications. Furthermore, small satellite flying in formation is a key technology for many future space science missions, by improving mission survivability and reducing mission costs, and offering multi-mission capabilities, achieved through reconfiguration of formations.The main goal of this thesis is two-fold: proposing innovative nanosatellite constellation models andnew routing approaches for nanosatellite network telecommunications. Therefore, this research work proposes and analyzes three models of nanosatellite constellations, named NanoDREAM, NanoiCE, NanoSPHERE, that provide telecommunication services to remote regions of the Earth. NanoDREAM mode! is designed for Bolivia's Salar de Uyuni Desert, a region which detains 70% of the global lithium reserve. NanoiCE model is intended for Polar Regions, in order to meet the voice and data transfer needs of the entire Antarctic and Arctic scientific community. NanoSPHERE is aimed to provide global coverage in the context of a robust telecommunications market. Additionally, a ground segment architecture based on wireless technology and deployed over the exploitation area of Salar de Uyuni Desert was proposed. Moreover, two new methodologies were proposed: the first one is a method for estimating the number of nano-satellites needed to cover a specific region was, and the second one is a Markov modeling­ based method for evaluating the performance of nanosatellite constellations. [...]
69

Les déterminants de la fidélité des consommateurs au commerce de détail cross-canal : application au système drive / Determinants of consumer loyalty in cross-channel retailing : application to drive-in stores

Wassouf, Kenan 26 September 2018 (has links)
Cette thèse a pour l’objectif principal d’identifier et de comprendre les facteurs clés qui contribuent à fidéliser le consommateur à un Drive dans un contexte de distribution cross-canal. Elle se compose de deux parties. Dans la première partie, nous avons d’abord mené une revue de littérature tournant autour de quatre champs de recherche : l’innovation commerciale, la stratégie de distribution cross-canal, le comportement cross-canal et la fidélité du consommateur. Elle a été combinée à une étude qualitative exploratoire. Ces deux étapes nous ont permis de proposer un modèle conceptuel de la qualité de service perçue du Drive et de ses effets sur les représentations mentales du consommateur ainsi que sur sa fidélité au Drive évalué. La deuxième partie est consacrée au teste les hypothèses, le modèle de recherche et à l’analyse des résultats. Pour cela, une enquête quantitative a été réalisée auprès de 500 utilisateurs du Drive. Les répondants ont été subdivisés en deux sous-échantillons (N1 = 150 et N2 = 350) pour réaliser les analyses factorielles exploratoires et confirmatoires. Le test du modèle général ainsi que des hypothèses de recherche a été conduit en recourant à la méthode des équations structurelles, plus précisément à la modélisation PLS-PM au moyen du logiciel XLSTAT 2017. Nos résultats confirment que dans un contexte de distribution cross-canal, l’évaluation globale du consommateur ne dépend pas d’un canal mais de l’intégration des canaux utilisés qui permet au consommateur de vivre une expérience à la fois originale, plaisants et intéressante. Cette dernière contribue à la création de la fidélité du consommateur à un Drive. / The main objective of this thesis is to identify and understand the key factors that contribute to consumer loyalty to a Drive-in in a cross-channel distribution context. It consists of two parts.In the first part, we present a literature review around four fields of research: commercial innovation, cross-channel distribution strategy, cross-channel behavior and consumer loyalty. We complete this part with an exploratory qualitative study (in-depth interviews with consumers). These two steps allowed us to propose a conceptual model of the perceived quality of service of the Drive-in and its effects on the mental representations of the consumer (perceived overall value and satisfaction) as well as on its fidelity to the evaluated Drive-in.The second part is devoted to testing the hypotheses, the research model, and the analysis of the results. For this, a quantitative survey was conducted among 500 consumers of Drive-in. Respondents were divided into two sub-samples (N1 = 150 and N2 = 350) to perform exploratory and confirmatory factor analyzes. The general model test and research hypotheses were conducted using the structural equations method. In detail, to run the PLS-PM (Partial least squares) modeling, we employed XLSTAT 2017 software. Our results confirm that in a context of cross-channel distribution, the overall evaluation of a consumer does not depend on a channel, but it is related to the integration of the used channels which creates an original, pleasant and interesting experience for consumers. With the integration of channels, Drive-in consumers have an original, pleasant and interesting experience which contributes to the creation of consumer loyalty.
70

Une approche pour la composition autonome de services de communication orientés QoS. Application aux protocoles de transport configurables

Van Wambeke, Nicolas 08 September 2009 (has links) (PDF)
Les dernières évolutions de l'Internet se sont traduites par l'émergence de nouvelles applications distribuées et par la multiplication des technologies réseaux (sans fils, mobiles. . . ) ainsi que des services offerts par les opérateurs sur de nouveaux types de terminaux (portable, PDA. . . ). L'enjeu socio économique majeur de ces avancées est le futur Internet ambiant, à la fois ubiquitaire et intelligent, au travers duquel l'utilisateur pourra, quelle que soit sa localisation et son point d'accès, bénéficier d'une qualité de service (QdS) maximale compatible avec l'environnement applicatif et réseau courant, hétérogène et dynamique. Dans cet horizon, la thèse présente une architecture ainsi que des modèles et algorithmes permettant de réaliser une composition dynamique et auto-adaptative des services fournis par les multiples mécanismes de QdS existants. L'approche proposée repose sur l'adaptabilité dynamique et coordonnée, à la fois du comportement et de l'architecture des protocoles composant la pile de communication. La démarche suivie se base sur la théorie de l'intelligence artificielle et l'apprentissage et propose la spécification, l'implémentation et l'évaluation d'un système de communication adaptatif en fonction à la fois, des exigences applicatives liées aux flux manipulés, et des contraintes de l'environnement de communication. Enfin, l'évaluation faite des modèles dedécision et d'apprentissage illustre comment le système permet de répondre à son objectif et valide ainsi les concepts qui sont proposés dans cette thèse.

Page generated in 0.0867 seconds