• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 25
  • 11
  • 8
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 107
  • 16
  • 15
  • 13
  • 12
  • 12
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Enhanced Probabilistic Broadcasting Scheme for Routing in MANETs. An investigation in the design analysis and performance evaluation of an enhanced probabilistic broadcasting scheme for on-demand routing protocols in mobile ad-hoc networks.

Hanashi, Abdalla Musbah Omar January 2009 (has links)
Broadcasting is an essential and effective data propagation mechanism with several important applications, such as route discovery, address resolution and many other network services. Though data broadcasting has many advantages, it can also cause a high degree of contention, collision and congestion, leading to what is known as ¿broadcast storm problems¿. Broadcasting has traditionally been based on the flooding protocol, which simply overflows the network with a high number of rebroadcast messages until these reach all the network nodes. A good probabilistic broadcast protocol can achieve high saved rebroadcast (SRB), low collision and a lower number of relays. When a node is in a sparse region of the network, rebroadcasting is relatively more important while the potential redundancy of rebroadcast is low because there are few neighbours which might rebroadcast the packet unnecessarily. Further, in such a situation, contention over the wireless medium resulting from Redundant broadcasts is not as serious as in scenarios with medium or high density node populations. This research proposes a dynamic probabilistic approach that dynamically fine-tunes the rebroadcast probability according to the number of neighbouring nodes distributed in the ad-hoc network for routing request packets (RREQs) without requiring the assistance of distance measurements or location-determination devices. The main goal of this approach is to reduce the number of rebroadcast packets and collisions in the network. The performance of the proposed approach is investigated and compared with simple AODV, fixed-probabilistic and adjusted-probabilistic flooding [1] schemes using the GloMoSim network simulator and a number of important MANET parameters, including node speed, traffic load and node density under a Random Waypoint (RWP) mobility model. Performance results reveal that the proposed approach is able to achieve higher SRB and less collision as well as a lower number of relays than fixed probabilistic, simple AODV and adjusted-probabilistic flooding. In this research, extensive simulation experiments have been conducted in order to study and analyse the proposed dynamic probabilistic approach under different mobility models. The mobility model is designed to describe the movement pattern of mobile customers, and how their position, velocity and acceleration change over time. In this study, a new enhanced dynamic probabilistic flooding scheme is presented. The rebroadcast probability p will be calculated dynamically and the rebroadcasting decision will be based on the average number of nodes in the ad-hoc networks. The performance of the new enhanced algorithm is evaluated and compared to the simple AODV, fixed-probabilistic, adjusted-probabilistic and dynamic-probabilistic flooding schemes. It is demonstrated that the new algorithm has superior performance characteristics in terms of collision, relays and SRB. Finally, the proposed schemes are tested and evaluated through a set of experiments under different mobility models to demonstrate the relative merits and capabilities of these schemes.
22

Novel Methods to Improve the Energy Efficiency of Multi-core Synchronization Primitives

Vadambacheri Manian, Karthik January 2017 (has links)
No description available.
23

La contribution des patients et de leurs représentants à l'évaluation des mesures alternatives à la contention et à l'isolement chez les adultes hospitalisés ou en centres d'hébergement

Tantchou Dipankui, Mylène 23 April 2018 (has links)
La participation des patients s’est intensifiée dans le domaine de l’évaluation des technologies et des modes d’intervention en santé (ETMIS), ces dernières années. Pourtant, les études portant sur l’évaluation de cette implication sont rares. Cette recherche en trois volets avait pour but 1) d’explorer les perceptions des membres du groupe de travail mis sur pied par une UETMIS de Québec concernant la participation de représentants de patients à l’évaluation des mesures alternatives à la contention et à l’isolement chez des adultes hospitalisés ou en centres d’hébergement; 2) d’analyser les effets de l’implication des patients dans cette ETMIS; et 3) de décrire les relations entre les chercheurs et les décideurs impliqués dans ce projet ETMIS en relevant aussi les effets de cette collaboration sur les résultats à court terme de cette ETMIS. Un devis descriptif qualitatif a été utilisé pour chacun des volets de cette recherche. Concernant le premier volet, soit la participation des représentants de patients à l’évaluation des mesures alternatives à la contention et à l’isolement, 15 entrevues semi-dirigées ont été réalisées avec trois soignants, quatre gestionnaires, quatre représentants de patients, ainsi que quatre membres d’unités locales d’ETMIS. L’observation directe et non structurée des rencontres du groupe de travail mis sur pied pour réaliser cette ETMIS a aussi été réalisée. L’analyse des résultats était basée sur un cadre intégrateur développé pour évaluer les formes d’implication des patients dans cette ETMIS. Pour le deuxième volet de cette étude, soit les résultats à court terme associés à l’implication des patients dans l’évaluation des mesures alternatives à la contention et à l’isolement, 13 participants, incluant trois représentants de patients, deux membres d’une unité locale d’ETMIS, deux chercheurs, cinq membres du groupe de travail, et deux membres du comité scientifique de l’unité locale d’ETMIS (dont un était aussi membre du groupe de travail), ont été interviewées. Des notes de terrain, ainsi que des sources documentaires en rapport avec l’évaluation des mesures alternatives à la contention et à l’isolement ont aussi été analysées. Une partie du cadre de référence mobilisé pour le premier volet de cette étude a été utilisé pour ce deuxième volet. Concernant le troisième volet de cette étude, soit la collaboration entre chercheurs et utilisateurs de connaissances, cinq participants, incluant trois chercheurs et deux utilisateurs de connaissances, ont été interviewées. Des notes de terrain suite à l’observation directe et non structurée de cinq rencontres de l’équipe de recherche du projet d’implication des patients dans l’évaluation des mesures alternatives à la contention et à l’isolement ont aussi été analysées. L’analyse des résultats de ce volet de la recherche était basée sur le cadre de référence de la recherche collaborative développé par Baumbusch et ses collaborateurs (2008) et la théorie de la structuration. Nos résultats relatifs au premier volet soulignent une participation inégale des représentants de patients en raison de leurs caractéristiques personnelles, de la compréhension de leur rôle dans le groupe de travail et des attentes du comité. Le recentrage des propos des soignants et des gestionnaires sur les préoccupations des usagers et l’ajustement de leur langage grâce à la présence des représentants de patients dans ce groupe sont aussi mentionnés. Le contexte organisationnel et politique s’est révélé comme un facilitateur de cette participation. Concernant le deuxième volet, nos résultats mettent en évidence la prise en compte de la perspective des patients dans le rapport de cette ETMIS. Ils révèlent aussi une grande influence de la consultation des patients dans le contenu du rapport comparé à la participation directe des représentants de patients aux activités du groupe de travail. Quant au troisième volet de cette recherche, nos résultats révèlent que les chercheurs ont développé les outils théoriques et la méthodologie pour réaliser le projet d’implication des patients dans l’évaluation des mesures alternatives à la contention et à l’isolement, tandis que les utilisateurs de connaissances ont facilité l’accès au terrain des chercheurs. En conclusion, la participation des patients et de leurs représentants peut influencer les manières de faire de l’ETMIS. Des efforts seraient à entreprendre pour consolider cette implication afin qu’elle soit une démarche systématique dans tous les projets d’ETMIS qui s’y prêtent. La collaboration entre chercheurs et utilisateurs de connaissances pourrait faciliter cette implication, les chercheurs étant consultés en tant qu’experts.
24

Sécurité temps réel dans les systèmes embarqués critiques / Real-time security in critical embedded system

Buret, Pierrick 01 December 2015 (has links)
La croissance des flux d'information à travers le monde est responsable d'une importante utilisation de systèmes embarqués temps-réel, et ce notoirement dans le domaine des satellites. La présence de ces systèmes est devenue indispensable pour la géolocalisation, la météorologie, ou les communications. La forte augmentation du volume de ces matériels, impactée par l'afflux de demande, est à l'origine de l'accroissement de la complexité de ces derniers. Grâce à l'évolution du matériel terrestre, le domaine aérospatial se tourne vers de nouvelles technologies telles que les caches, les multi-coeurs, et les hyperviseurs. L'intégration de ces nouvelles technologies est en adéquation avec de nouveaux défis techniques. La nécessité d'améliorer les performances de ces systèmes induit le besoin de réduction du coût de fabrication et la diminution du temps de production. Les solutions technologiques qui en découlent apportent pour majeure partie des avantages en matière de diminution du nombre global de satellites à besoin constant. La densité d'information traitée est parallèlement accrue par l'augmentation du nombre d'exploitants pour chaque satellite. En effet, plusieurs clients peuvent se voir octroyer tout ou partie d'un même satellite. Intégrer les produits de plusieurs clients sur une même plateforme embarquée la rend vulnérable. Augmenter la complexité du système rend dès lors possible un certain nombre d'actes malveillants. Cette problématique autrefois à l'état d'hypothèse devient aujourd'hui un sujet majeur dans le domaine de l'aérospatial. Figure dans ce document, en premier travail d'exploration, une présentation des actes malveillants sur système embarqué, et en particulier ceux réalisés sur système satellitaire. Une fois le risque exposé, je développe la problématique temps-réel. Je m'intéresse dans cette thèse plus précisément à la sécurité des hyperviseurs spatiaux. Je développe en particulier deux axes de recherche. Le premier porte sur l'évolution des techniques de production et la mise en place d'un système de contrôle des caractéristiques temporelles d'un satellite. Le deuxième axe améliore les connaissances techniques sur un satellite en cours de fonctionnement et permet une prise de décision en cas d'acte malveillant. Je propose plus particulièrement une solution physique permettant de déceler une anomalie sur la gestion des mémoires internes au satellite. En effet, la mémoire est un composant essentiel du fonctionnement du système, et ses propriétés communes entre tous les clients la rend particulièrement vulnérable. De plus, connaître le nombre d'accès en mémoire permet un meilleur ordonnancement et une meilleure prédiction d'un système temps réel. Notre composant permet la détection et l'interprétation d'une potentielle attaque ou d'un problème de sûreté de fonctionnement. Cette thèse met en évidence la complémentarité des deux travaux proposés. En effet, la mesure du nombre d'accès en mémoire peut se mesurer via un algorithme génétique dont la forme est équivalente au programme cherchant le pire temps d'exécution. Il est finalement possible d'étendre nos travaux de la première partie vers la seconde. / Satellites are real-time embedded systems and will be used more and more in the world. Become essential for the geo-location, meteorology or communications across the planet, these systems are increasingly in demand. Due to the influx of requests, the designers of these products are designing a more and more complex hardware and software part. Thanks to the evolution of terrestrial equipment, the aero-space field is turning to new technologies such as caches, multi-core, and hypervisor. The integration of these new technologies bring new technical challenges. In effect, it is necessary to improve the performance of these systems by reducing the cost of manufacturing and the production time. One of the major advantages of these technologies is the possibility of reducing the overall number of satellites in space while increasing the number of operators. Multiple clients softwares may be together today in a same satellite. The ability to integrate multiple customers on the same satellite, with the increasing complexity of the system, makes a number of malicious acts possible. These acts were once considered as hypothetical. Become a priority today, the study of the vulnerability of such systems become major. In this paper, we present first work a quick exploration of the field of malicious acts on onboard system and more specifically those carried out on satellite system. Once the risk presentation we will develop some particular points, such as the problematic real-time. In this thesis we are particularly interested in the security of space hypervisors. We will develop precisely 2 lines of research. The first axis is focused on the development of production technics and implementing a control system of a satellite temporal characteristics. The objective is to adapt an existing system to the constraints of the new highly complex systems. We confront the difficulty of measuring the temporal characteristics running on a satellite system. For this we use an optimization method called dynamic analysis and genetic algorithm. Based on trends, it can automatically search for the worst execution time of a given function. The second axis improves the technical knowledge on a satellite in operation and enables decision making in case of malicious act. We propose specifically a physical solution to detect anomalies in the management of internal memory to the satellite. Indeed, memory is an essential component of system operation, and these common properties between all clients makes them particularly vulnerable to malicious acts. Also, know the number of memory access enables better scheduling and better predictability of a real time system. Our component allows the detection and interpretation of a potential attack or dependability problem. The work put in evidence the complementarity of the two proposed work. Indeed, the measure of the number of memory access that can be measured via a genetic algorithm whose shape is similar to the program seeking the worst execution time. So we can expand our work of the first part with the second.
25

Analyse de performance d'un commutateur de paquets hybride opto-électronique / Performance analysis of hybrid opto-electronic packet switch

Samoud, Wiem 11 October 2016 (has links)
La fibre optique demeure le support de transmission le plus utilisé, portant le trafic à une énergie par bit relativement faible. Cependant, à cause de l’absence de mémoire toutoptique pratique, la commutation de paquets est toujours exécutée électriquement. Les conversions Optiques Électriques Optiques (O-E-O) nécessaires font de la commutation l’un des domaines les plus consommateurs d’énergie. Ce problème est de plus en plus important spécialement avec la croissance exponentielle du trafic dans les réseaux optiques. Un défi majeur à prendre en considération dans la conception de futurs réseaux optiques est la restriction de leur consommation énergétique. De ce fait, dans le cadre de cette thèse, nous étudions un commutateur hybride opto-électronique qui consiste en une matrice de commutation optique complétée par une mémoire électronique partagée. L’analyse de performance prenant en compte différentes classes de service, distributions de paquets et méthodes de connectivité du commutateur (canaux WDMet/ou SDM), montre que, grâce aux stratégies de commutation établies, le commutateur hybride répond aux besoins de toutes les classes de service en termes de taux de perte de paquets, la charge durable du système et la latence. De plus, il réduit significativement les conversions O-E-O par rapport aux commutateurs électriques commercialisés, puisqu’ils n’auront lieu que pour les paquets mis en mémoire d’attente. Nous défendons que le commutateur de paquets hybride opto-électronique satisfait les exigences en qualité de service et pourrait être une solution prometteuse pour réduire la consommation d’énergie des réseaux optiques. / Most transmission systems are based on optical fibers, carrying the traffic at a relatively low energy per bit. However, due to the lack of mature optical buffers, packet switching is still performed electrically. The required Optical-Electrical-Optical (O-E-O) conversions make the switching one of the areas with the fastest-growing energy consumption. A major challenge that must be met in designing future optical networks is curbing their energy consumption. Therefore, within this thesis, we investigate a hybrid optoelectronic switch which consists of an optical switching matrix supplemented with a shared electronic buffer. Performance analysis taking into account different classes of service, packet classifications and switch connectivity methods (WDM and/or SDM channels), shows that, thanks to the established switching strategies, the hybrid switch satisfies the requirements of all the different classes of service in terms of Packet Loss Rate, sustainable system load and latency. Moreover, it significantly reduces the O-E-O conversions compared to commercial off-the-shelf electrical switches, since they occur only for buffered packets. We defend that the hybrid opto-electronic packet switch meets the requirements on quality of service and could be a promising solution to reduce the energy consumption of optical networks.
26

Distance Measures for QOS Performance Management in Mixed Networks

Astatke, Yacob 10 1900 (has links)
ITC/USA 2008 Conference Proceedings / The Forty-Fourth Annual International Telemetering Conference and Technical Exhibition / October 27-30, 2008 / Town and Country Resort & Convention Center, San Diego, California / The integrated Network Enhanced Telemetry effort (iNET) was launched to create a telemetry network that will enhance the traditional point-to-point telemetry link from test articles (TAs) to ground stations (GS). Two of the critical needs identified by the Central Test and Evaluation Investment Program (CTEIP) are, "the need to be able to provide reliable coverage in potentially high capacity environments, even in Over-The-Horizon (OTH) settings", and "the need to make more efficient use of spectrum resources through dynamic sharing of said resources, based on instantaneous demand thereof". Research conducted at Morgan State University (MSU) has focused on providing solutions for both critical problems. The Mixed Network architecture developed by MSU has shown that a hybrid network can be used to provide coverage for TAs that are beyond the coverage area of the GS. The mixed network uses clustering techniques to partition the aggregate network into clusters or sub-networks based on properties of each TA, which currently include signal strengths, and location. The paper starts with a detailed analysis of two parameters that affect the performance of each sub-network: contention between the TAs in the mobile ad-hoc network, and queuing at the Gateway TAs that serve as the link between the mobile ad-hoc and the Cellular networks. Contention and queuing will be used to evaluate two performance (distance) measures for each sub-network: throughput and delay. We define a new distance measure known as "power", which is equal to the ratio of throughput over delay, and is used as a measure of performance of the mixed network for Quality of Service (QOS). This paper describes the analytical foundation used to prove that the "power" performance measure is an excellent tool for optimizing the clustering of a mixed network to provide QOS.
27

QUALITY OF SERVICE PARAMETERS WITHIN A MIXED NETWORK FOR THE INET ENVIRONMENT

Chaney, Antwan 10 1900 (has links)
ITC/USA 2007 Conference Proceedings / The Forty-Third Annual International Telemetering Conference and Technical Exhibition / October 22-25, 2007 / Riviera Hotel & Convention Center, Las Vegas, Nevada / The focus of the integrated Network Enhanced Telemetry (iNET) project is to enhance the current telemetry technology (IRIG106) and still maintain the reliability of the current technology. The Mixed Networking environment is composed of a wired network based on standard 802.11 and a modified wireless based on 802.11. Determining the viability of the networking scheme within the iNET project is critical. The QoS features such as delay and jitter are measures of performance specified by user conditions. These QoS features are measured against current legacy links. This paper will show a comparison of the three QoS levels (best effort, assured, and premium services) that the network provides and investigate QoS performance of the Mixed Network in the iNET environment. This will provide a framework for assessing the strength and weakness of the Mixed Network as well as scoping further research.
28

Improving fairness and utilisation in ad hoc networks

Arabi, Mohamed January 2012 (has links)
Ad hoc networks represent the current de-facto alternative for infrastructure-less environments, due to their self-configuring and resilience characteristics. Ad hoc networks flexibility benefits, such as unrestrained computing, lack of centralisation, and ease of deployment at low costs, are tightly bound with relevant deficiencies such as limited resources and management difficulty. Ad hoc networks witnessed high attention from the research community due to the numerous challenges faced when deploying such a technology in real scenarios. Starting with the nature of the wireless environment, which raises significant transmission issues when compared with the wired counterpart, ad hoc networks require a different approach when addressing the data link problems. Further, the high packet loss due to wireless contention, independent of network congestion, requires a different approach when considering quality of service degradation and unfair channel resources distribution among competing flows. Although these issues have already been considered to some extent by researchers, there is still room to improve quality of service by reducing the effect of packet loss and fairly distributing the medium access among competing nodes. The aim of this thesis is to propose a set of mechanisms to alleviate the effect of packet loss and to improve fairness in ad hoc networks. A transport layer algorithm has been proposed to overcome the effects of hidden node collisions and to reduce the impact of wireless link contention by estimating the four hop delay and pacing packet transmissions accordingly. Furthermore, certain topologies have been identified, in which the standard IEEE 802.11 faces degradation in channel utilisation and unfair bandwidth allocation. Three link layer mechanisms have been proposed to tackle the challenges the IEEE 802.11 faces in the identified scenarios to impose fairness in ad hoc networks through fairly distributing channel resources between competing nodes. These mechanisms are based on monitoring the collision rate and penalising the greedy nodes where no competing nodes can be detected but interference exists, monitoring traffic at source nodes to police access to the channel where only source nodes are within transmission range of each other, and using MAC layer acknowledgements to flag unfair bandwidth allocation in topologies where only the receivers are within transmission range of each other. The proposed mechanisms have been integrated into a framework designed to adapt and to dynamically select which mechanism to adopt, depending on the network topology. It is important to note that the proposed mechanisms and framework are not alternatives to the standard MAC protocol but are an enhancement and are triggered by the failure of the IEEE 802.11 protocol to distribute the channel resources fairly. All the proposed mechanisms have been validated through simulations and the results obtained from the experiments show that the proposed schemes fairly distribute channel resources fairly and outperform the performance of the IEEE 802.11 protocol in terms of channel utilisation as well as fairness.
29

Implication du stress oxydatif et modélisation du risque suicidaire dans la schizophrénie : développement de deux modèles murins à double atteinte / Involvement of oxidative stress and development of suicide-related behaviors in schizphrenia : development of two double-hit murine models

Deslauriers, Jessica January 2014 (has links)
L’hypothèse neurodéveloppementale de la schizophrénie suggère, entre autres, que l’inflammation prénatale sensibilise le cerveau en développement à une atteinte subséquente durant le jeune âge, augmentant le risque de développer la maladie. Pour mieux comprendre la pathophysiologie de la maladie, nous avons développé un modèle à double atteinte basé sur l’activation immunitaire gestationnelle au polyIC (PIC) suivie d’un stress de contention à l’âge juvénile chez la souris. Un effet additif est observé sur le déficit de l’inhibition du réflexe de sursaut par stimulus sonore (IPP), accompagné d’anomalies oxydatives, dopaminergiques et GABAergiques dans le cortex préfrontal (PFC) et le striatum, chez les souris exposées aux deux atteintes dès l’âge juvénile. À notre connaissance, il s’agit du premier modèle à double atteinte démontrant un déficit de l’IPP dès l’âge pubertaire. De plus, l’acide lipoïque, un antioxydant, prévient les déficits d’IPP et les anomalies neurochimiques du PFC, supportant ainsi l’implication du stress oxydatif dans la schizophrénie et suggérant que les déficits d’IPP sont associés à des anomalies du PFC. Ce modèle aidera à étudier de nouvelles alternatives thérapeutiques pour le traitement de la schizophénie, spécialement durant la phase prodromale. Sur un autre ordre d’idée, un taux élevé de mortalité par suicide existe chez les patients schizophrènes et les mécanismes pathophysiologiques de ce phénomène demeurent peu compris. Un deuxième modèle à double atteinte a été développé, présentant des comportements associés au risque suicidaire (agressivité, impulsivité, anxiété et perte d’espoir), via le polyIC prénatal suivi de l’isolement social dès le sevrage des souriceaux. Les deux atteintes interagissent pour induire plusieurs comportements de type schizophrénique et associés au risque suicidaire chez les mâles. Le chlorure de lithium, connu pour ses effets de « prévention du suicide » dans la population générale, améliore les composantes comportementales chez les animaux isolés seulement, alors que la clozapine, l’antipsychotique avec le meilleur effet de « prévention du suicide », prévient les anomalies comportementales principalement dans le modèle à double atteinte. Les effets distincts des deux molécules suggèrent que les souris exposées aux deux atteintes modélisent un phénotype distinct de celui des souris seulement isolées. Comme le diagnostic du risque suicidaire chez les patients schizophrènes demeure un défi pour les psychiatres, notre modèle in vivo aidera à mieux comprendre les mécanismes impliqués dans le comportement suicidaire chez ces patients, favorisant ainsi le développement de nouveaux traitements pour cette population vulnérable.
30

Cost- and Performance-Aware Resource Management in Cloud Infrastructures

Nasim, Robayet January 2017 (has links)
High availability, cost effectiveness and ease of application deployment have accelerated the adoption rate of cloud computing. This fast proliferation of cloud computing promotes the rapid development of large-scale infrastructures. However, large cloud datacenters (DCs) require infrastructure, design, deployment, scalability and reliability and need better management techniques to achieve sustainable design benefits. Resources inside cloud infrastructures often operate at low utilization, rarely exceeding 20-30%, which increases the operational cost significantly, especially due to energy consumption. To reduce operational cost without affecting quality of service (QoS) requirements, cloud applications should be allocated just enough resources to minimize their completion time or to maximize utilization.  The focus of this thesis is to enable resource-efficient and performance-aware cloud infrastructures by addressing above mentioned cost and performance related challenges. In particular, we propose algorithms, techniques, and deployment strategies for improving the dynamic allocation of virtual machines (VMs) into physical machines (PMs).  For minimizing the operational cost, we mainly focus on optimizing energy consumption of PMs by applying dynamic VM consolidation methods. To make VM consolidation techniques more efficient, we propose to utilize multiple paths to spread traffic and deploy recent queue management schemes which can maximize network resource utilization and reduce both downtime and migration time for live migration techniques. In addition, a dynamic resource allocation scheme is presented to distribute workloads among geographically dispersed DCs considering their location based time varying costs due to e.g. carbon emission or bandwidth provision. For optimizing performance level objectives, we focus on interference among applications contending in shared resources and propose a novel VM consolidation scheme considering sensitivity of the VMs to their demanded resources. Further, to investigate the impact of uncertain parameters on cloud resource allocation and applications’ QoS such as unpredictable variations in demand, we develop an optimization model based on the theory of robust optimization. Furthermore, in order to handle the scalability issues in the context of large scale infrastructures, a robust and fast Tabu Search algorithm is designed and evaluated. / High availability, cost effectiveness and ease of application deployment have accelerated the adoption rate of cloud computing. This fast proliferation of cloud computing promotes the rapid development of large-scale infrastructures. However, large cloud datacenters (DCs) require infrastructure, design, deployment, scalability and reliability and need better management techniques to achieve sustainable design benefits. Resources inside cloud infrastructures often operate at low utilization, rarely exceeding 20-30%, which increases the operational cost significantly, especially due to energy consumption. To reduce operational cost without affecting quality of service (QoS) requirements, cloud applications should be allocated just enough resources to minimize their completion time or to maximize utilization.  The focus of this thesis is to enable resource-efficient and performance-aware cloud infrastructures by addressing above mentioned cost and performance related challenges. In particular, we propose algorithms, techniques, and deployment strategies for improving the dynamic allocation of virtual machines (VMs) into physical machines (PMs).

Page generated in 0.5043 seconds