• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 22
  • 8
  • 7
  • 5
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 94
  • 22
  • 18
  • 13
  • 13
  • 12
  • 11
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Is sharing caring? : En kvantitativ studie om intentionen bakom att dela virala videor / Is sharing caring? : A quantitative study about the intention behind sharing viral videos

Happ, Amanda, Wilhelmsson, Erik January 2019 (has links)
Titel: Is sharing caring? En kvantitativ studie om intentionen att dela virala videor   Nivå: Examensarbete på Grundnivå (kandidatexamen) i ämnet företagsekonomi   Författare: Amanda Happ och Erik Wilhelmsson   Handledare: Jonas Kågström   Datum: 2019 – Januari   Syfte: Syftet med studien är att analysera faktorerna bakom intentionen att dela en viral video på internet utifrån begreppen videokvalitet, empati, kontroll, altruism och inkludering. Studien genomförs således för att bidra med kunskap om intentionen bakom virala videodelningar till marknadsförare inom ämnet.   Metod: En kvantitativ metod har använts där data har samlats in genom en webbaserad enkätundersökning med 480 kvinnliga respondenter från 16 år och uppåt. Data har bearbetats i analys- och statistikprogrammet SPSS genom deskriptiv-, faktor-, kluster- och korrelationsanalys.   Resultat & slutsats: Resultatet visar att inkludering, altruism och i viss mån kontroll är de främsta faktorerna för att skapa en intention att dela virala videor på internet. Vidare visar resultatet att personer som väljer att dela virala videor med sina vänner ofta vill uppnå förstärkta band till gruppens medlemmar och bekräftelse av sin egen roll i den sociala gruppen.   Examensarbetets bidrag: Studien bidrar till ökad kunskap om vilka beteendefaktorer som ligger bakom beslutet att dela en viral video på internet. Denna kunskap kan hjälpa yrkesutövare skapa en marknadsföringskampanj som har till syfte att bli viral på internet.      Förslag till fortsatt forskning: Fortsatt forskning bör rikta sig till andra målgrupper, förslagsvis män. Det är även relevant att utföra en större undersökning där intentionen hos både sändare och mottagare (som i sin tur delar videon vidare) analyseras för att kunna påträffa eventuella likheter och skillnader hos dessa olika grupper.   Nyckelord: Virala videor, delning, eWOM, FIRO, Moment-to-Moment Likeability / Title: Is sharing caring? A quantitative study about the intention behind sharing viral videos.   Level: Student thesis, final assignment for bachelor’s degree in business administration.   Author: Amanda Happ and Erik Wilhelmsson   Supervisor: Jonas Kågström   Date: 2019 – January   Aim: The aim of this paper is to analyze factors behind the intention to share a viral video on the internet based on the concepts of video quality, empathy, control, altruism and inclusion.  This paper aims to contribute knowledge of the intention behind sharing viral videos to marketers within the subject.   Method: A quantitative method has been performed where data has been collected through a web-based survey of 480 female respondents from 16 years and older. Data has been processed in the analysis- and statistical program SPSS by using descriptive-, factor-, cluster- and correlation analysis.   Result & Conclusions: The result shows that inclusion, altruism and, to some extent, control are the main factors for creating an intention to share viral videos on the internet. Furthermore, the result shows that people who choose to share viral videos with their friends often want to strengthen ties to other group members and reinforce their role in the social group.   Contribution of the thesis: The study contributes to increased knowledge of the behavioral factors behind the decision to share a viral video. Knowledge can help professionals when a marketing campaign is being created with the aim of becoming viral on the internet.   Suggestions for future research: Continued research should target other groups, preferably men. It is also relevant to conduct a larger survey where the intention of both creator and receiver of viral content are analyzed to identify any similarities and differences between them.   Key words: Viral videos, forwarding intention, eWOM, FIRO, Moment-to-Moment Likeability
72

Evaluating I/O scheduling techniques at the forwarding layer and coordinating data server accesses / Avaliação de técnicas de escalonamento de E/S na camada de encaminhamento e coordenação de acesso aos servidores de dados

Bez, Jean Luca January 2016 (has links)
Em ambientes de Computação de Alto Desempenho, as aplicações científicas dependem dos Sistemas de Arquivos Paralelos (SAP) para obter desempenho de Entrada/Saída (E/S), especialmente ao lidar com grandes quantidades de dados. No entanto, E/S ainda é um gargalo para um número crescente de aplicações, devido à diferença histórica entre a velocidade de processamento e de acesso aos dados. Para aliviar a concorrência causada por milhares de nós que acessam um número significativamente menor de servidores SAP, normalmente nós intermediários de E/S são adicionados entre os nós de processamento e o sistema de arquivos. Cada nó intermediário encaminha solicitações de vários clientes para o sistema, uma configuração que dá a este componente a oportunidade de executar otimizações como o escalonamento de requisições de E/S. O objetivo desta dissertação é avaliar diferentes algoritmos de escalonamento, na camada de encaminhamento de E/S, cuja finalidade é melhorar o padrão de acesso das aplicações, agregando e reordenando requisições para evitar padrões que são conhecidos por prejudicar o desempenho. Demonstramos que os escalonadores FIFO (First In, First Out), HBRR (Handle-Based Round-Robin), TO (Time Order), SJF (Shortest Job First) e MLF (Multilevel Feedback) são apenas parcialmente eficazes porque o padrão de acesso não é o principal fator que afeta o desempenho na camada de encaminhamento de E/S, especialmente para requisições de leitura Um novo algoritmo de escalonamento chamado TWINS é proposto para coordenar o acesso de nós intermediários de E/S aos servidores de dados do sistema de arquivos paralelo. Nossa abordagem reduz a concorrência nos servidores de dados, um fator previamente demonstrado como reponsável por afetar negativamente o desempenho. O algoritmo proposto é capaz de melhorar o tempo de leitura de arquivos compartilhados em até 28% se comparado a outros algoritmos de escalonamento e em até 50% se comparado a não fazer o encaminhamento de requisições de E/S. / In High Performance Computing (HPC) environments, scientific applications rely on Parallel File Systems (PFS) to obtain Input/Output (I/O) performance especially when handling large amounts of data. However, I/O is still a bottleneck for an increasing number of applications, due to the historical gap between processing and data access speed. To alleviate the concurrency caused by thousands of nodes accessing a significantly smaller number of PFS servers, intermediate I/O nodes are typically employed between processing nodes and the file system. Each intermediate node forwards requests from multiple clients to the parallel file system, a setup which gives this component the opportunity to perform optimizations like I/O scheduling. The objective of this dissertation is to evaluate different scheduling algorithms, at the I/O forwarding layer, that work to improve concurrent access patterns by aggregating and reordering requests to avoid patterns known to harm performance. We demonstrate that the FIFO (First In, First Out), HBRR (Handle- Based Round-Robin), TO (Time Order), SJF (Shortest Job First) and MLF (Multilevel Feedback) schedulers are only partially effective because the access pattern is not the main factor that affects performance in the I/O forwarding layer, especially for read requests. A new scheduling algorithm, TWINS, is proposed to coordinate the access of intermediate I/O nodes to the parallel file system data servers. Our approach decreases concurrency at the data servers, a factor previously proven to negatively affect performance. The proposed algorithm is able to improve read performance from shared files by up to 28% over other scheduling algorithms and by up to 50% over not forwarding I/O requests.
73

Information-Centric Networking, A natural design for IoT applications? / Le réseau basé sur les informations (ICN), une conception naturelle pour l'Internet des Objets?

Meddeb, Maroua 27 September 2017 (has links)
L'Internet des Objets (IdO) est généralement perçu comme l'extension de l'Internet actuel à notre monde physique. Il interconnecte un grand nombre de capteurs / actionneurs, référencés comme des objets, sur Internet. Face aux importants défis imposés par l'hétérogénéité des dispositifs et l'énorme trafic généré, la pile protocolaire actuelle TCP / IP va atteindre ses limites. Le réseau centré sur l'information (ICN) a récemment reçu beaucoup d'attention comme une nouvelle architecture Internet qui a un grand potentiel pour être adoptée dans un système IdO. Le paradigme ICN forme la future architecture Internet qui s’est contrée sur les données elles-mêmes plutôt que sur leurs emplacements dans le réseau. Il s'agit d'un passage d'un modèle de communication centrée sur l'hôte vers un système centré sur le contenu en se basant sur des noms de contenu uniques et indépendants de la localisation, la mise en cache dans le réseau et le routage basé sur les noms. Grâce à ses avantages pertinents, l'ICN peut être un framework viable pour soutenir l’IdO, interconnectant des milliards d'objets contraints hétérogènes. En effet, ICN permet l'accès facile aux données et réduit à la fois le délai de récupération et la charge des requêtes sur les producteurs de données. Parmi plusieurs architectures ICN, le réseau de données nommées (NDN) est considéré comme l'architecture ICN appropriée pour les systèmes IdO. Néanmoins, de nouveaux problèmes ont apparu et s'opposent aux ambitions visées dans l'utilisation de la philosophie ICN dans les environnements IdO. En fait, nous avons identifié trois défis majeurs. Étant donné que les périphériques IdO sont habituellement limités en termes de ressources avec des limitations sévères de l'énergie, de la mémoire et de la puissance de traitement, les techniques de mise en cache en réseau doivent être optimisées. En outre, les données IdO sont transitoires et sont régulièrement mises à jour par les producteurs, ce qui impose des exigences strictes pour maintenir la cohérence des données mises en cache. Enfin, dans un scénario IdO, les objets sont souvent mobiles et nécessitent des stratégies pour maintenir leurs accessibilités. Dans cette thèse, nous proposons une stratégie de mise en cache optimale qui considère les contraintes des périphériques. Ensuite, nous présentons un nouveau mécanisme de cohérence de cache pour surveiller la validité des contenus mis en cache dans un environnement IdO. En outre, pour améliorer l'efficacité de la mise en cache, nous proposons également une politique de remplacement du cache qui vise à augmenter les performances du système et à maintenir la validité des données. Enfin, nous introduisons un nouveau routage basé sur les noms pour les réseaux NDN / IdO afin de prendre en charge la mobilité des producteurs.Nous simulons et comparons nos propositions à plusieurs propositions pertinentes sous un réseau IdO de trafic réel. Nos contributions présentent de bonnes performances du système en termes de taux de réduction du chemin parcouru par les requêtes, de taux de réduction du nombre des requêtes satisfaites par les serveur, du délai de la réponse et de perte des paquets, de plus, la stratégie de mise en cache offre un faible coût de cache et finalement la validité du contenu est considérablement améliorée grâce au mécanisme de cohérence. / The Internet of Things (IoT) is commonly perceived as the extension of the current Internet to our physical world. It interconnects an unprecedented number of sensors/actuators, referred as things, to the Internet. Facing the important challenges imposed by devices heterogeneity and the tremendous generated traffic, the current Internet protocol suite has reached its limits. The Information-Centric Networking (ICN) has recently received a lot of attention as a potential Internet architecture to be adopted in an IoT ecosystem. The ICN paradigm is shaping the foreseen future Internet architecture by focusing on the data itself rather than its hosting location. It is a shift from a host-centric! communication model to a content-centric one supporting among! others unique and location-independent content names, in-network caching and name-based routing. By leveraging the easy data access, and reducing both the retrieval delay and the load on the data producer, the ICN can be a viable framework to support the IoT, interconnecting billions of heterogeneous constrained objects. Among several ICN architectures, the Named Data Networking (NDN) is considered as a suitable ICN architecture for IoT systems. Nevertheless, new issues have emerged slowing down the ambitions besides using the ICN paradigm in IoT environments. In fact, we have identified three major challenges. Since IoT devices are usually resource-constrained with harsh limitations on energy, memory and processing power, the adopted in-network caching techniques should be optimized. Furthermore, IoT data are transient and frequently updated by the producer which imposes stringent requirements to maintain cached data freshness. Finally, in IoT scenario, devices are ! frequently mobile and IoT applications require keeping data continuity. In this thesis, we propose a caching strategy that considers devices constraints. Then, we introduce a novel cache freshness mechanism to monitor the validity of cached contents in an IoT environment. Furthermore, to improve caching efficiency, we also propose a cache replacement policy that targets to raise the system performances and maintain data freshness. Finally, we introduce a novel name-based routing for NDN/IoT networks to support the producer mobility. We simulate and compare our proposals to several relevant schemes under a real traffic IoT network. Our schemes exhibit good system performances in terms of hop reduction ratio, server hit reduction ratio, response latency and packet loss, yet it provides a low cache cost and significantly improves the content validity.
74

以公車亭為基礎之耐延遲車載網路封包轉發策略 / A kiosk based packet forwarding strategy in vehicular delay tolerant networks

陳維偵, Chen, Wei Chen Unknown Date (has links)
在耐延遲網路(Delay Tolerant Network)中,因節點之間的高移動性、連接的不確定性環境嚴苛限制,採用Store-And-Forward 訊息傳輸的模式提供一個可接受的網路表現。常見的路由協定可分為機會路由、基於預測的路由以及調度路由,然而這些路由協定使用在市區環境中,有些許不足的地方,因此我們提出適用在市區封包轉發策略。 我們提出的以公車亭為基礎之耐延遲車載網路封包轉發策略,是在市區環境中建立一個以公車亭為基礎的資料傳送架構,包含汽車、公車、公車站、公車轉運站四種節點。我們建立節點與節點相遇時資料傳送規則,例如汽車與汽車相遇、汽車與公車相遇、公車與公車站相遇、公車與公車轉運站相遇、公車轉運站與公車相遇、公車站與汽車相遇、汽車與目的地相遇時各自有不同的資料傳送判斷與限制。 實驗結果也證明所提出的演算法,除了可以有效地減少延遲傳送時間並提高訊息成功傳送率,及在各節點有限的緩衝區大小下,我們的封包轉發策略有著最突出的效能。 / In Delay Tolerant Networks (DTNs), there does not exist an end-to-end path due to intermittent connectivity and high node mobility. Messages are stored for a period of time at network nodes and are conveyed hop-by-hop to the destination. The current DTN routing protocols can be summarized into three categories: opportunistic, prediction-based and scheduling protocols. However, these routing protocols have some deficiencies and are not specifically focused on the urban areas. Based on the characteristics of urban areas, we proposed a kiosk based packet forwarding strategy for vehicular delay tolerant networks. We established the rules of data transmission when one node contacts other nodes. More specifically, Car-to-Car, Car-to-Bus, Bus-to-Bus stop, Bus-to-Bus transfer station, Bus transfer station-to-Bus, Bus stop-to-Car ,Car-to-Destination contacts, have different judgments and restrictions for data forwarding. The simulation results demonstrate that we proposed packet forwarding strategy would reduce the delivery delay, and improve the successful delivery rate. Especially with limited buffer and little overhead, our proposed strategy has the most prominent performance.
75

Putting data delivery into context: Design and evaluation of adaptive networking support for successful communication in wireless self-organizing networks

Carneiro Viana, Aline 14 December 2011 (has links) (PDF)
Ce document est dédié à mes travaux de recherche développés au cours des six dernières années sur la conception et l'évaluation de systèmes de réseaux sans fil et est le résultat d'un certain nombre de collaborations. En particulier, mon objectif principal a été le soutien à la livraison fiable de données dans les réseaux sans fil auto-organisés. La question centrale, qui a guidée mes activités de recherche, est la suivante: "quels sont les services réseaux sous-jacents à la bonne conception de stratégies de communication sans fil dans les systèmes de réseaux auto-organisés (fixe ou mobile)?". Les réseaux auto-organisés (WSONs) ont des caractéristiques intrinsèques et, par conséquent, nécessitent des solutions particulières qui les distinguent des réseaux traditionnels basés sur des graphes. Les différents types de WSONs nécessitent des services adaptatifs ciblés pour faire face à leur nature (i.e., la mobilité, la limitation des ressources, le manque de fiabilité des communications sans fil,. . .) et pour trouver une adéquation entre leur fonctionnement et l'environnement. Influencée par de telles observations, mes activités de recherche ont été guidées par l'objectif principal de fournir au niveau du réseau un soutien à la livraison fiable de données dans les réseaux sans fil auto-organisés. Les axes de recherche, que j'ai développés avec mes collègues dans ce contexte, sont classés comme étant des services adaptifs "au niveau noeud" et "au niveau réseau" et se distinguent par le niveau auquel l'adaptation est considérée. Mes contributions, liées à la première catégorie de service, reposent sur les services de localisation et de découverte de voisinage. En raison de la limitation de page, ce manuscrit est, cependant, consacré à la recherche que j'ai menée autour des services adaptatifs au niveau du réseau. Par conséquent, il est structuré en trois chapitres principaux correspondants à trois classes de services réseaux : des services de gestion de la topologie, des services de gestion des données et des services de routage et d'acheminement. Ma première contribution concerne des services de gestion de la topologie, qui sont réalisés grâce à l'adaptation des noeuds - en imposant une hiérarchie dans le réseau via la clusterisation ou en supprimant des noeuds du graphe du réseau en les éteignant - et par la mobilité contrôlée - qui affecte à la fois la présence de noeuds et de liens, ainsi que la qualité des liens dans le graphe du réseau. Se basant sur l'adaptation de noeuds, le protocole SAND, les systèmes VINCOS et NetGeoS qui portent respectivement sur la conservation d'énergie et sur l'auto-structuration des réseaux de capteurs sans fil (WSN) ont été proposés. Ensuite, se basant sur la mobilité contrôlée, des propositions, liées à la conception de trajectoire de Hilbert et du protocole Cover, ont été présentées. Elles se concentrent sur le déploiement de solutions pour la couverture de zone avec des noeuds mobiles et ont été conçues pour surveiller périodiquement une zone géographique ou pour couvrir des noeuds de capteurs mobiles (cibles). Considérant les services de gestion de données, mes contributions se rapportent à la collecte des données - qui implique des solutions de distribution de données avec des objectifs liés a l'organisation - et la diffusion des données - où les flux de données sont dirigés vers le réseau. Pour cela, les protocoles DEEP et Supple ont été conçus pour les réseaux de capteurs sans fil, tandis que FairMix et VIP delegation se concentrent sur la diffusion d'information dans les réseaux sans fil sociaux. En particulier, afin d'améliorer la diffusion des données, FairMix et VIP delegation, exploitent les similarités des intérêts sociaux des personnes ou des groupes dans les réseaux fixes ou l'aspect social de leurs interactions sans fil dans les réseaux mobiles. Finalement, mes travaux sur les services adaptatifs d'acheminement attaquent la problèmatique de la connectivité opportuniste dans les réseaux sans fil tolérants aux délais. Dans ce contexte, les protocoles Seeker et GrAnt ont été conçus et utilisent respectivement l'histoire du contact entre les noeuds (les schémas de contact et de communication) et les propriétés des réseaux sociaux de noeuds afin de prédire les futures rencontres et de mieux ajuster les décisions de transfert. Au regard des nouvelles possibilités de communication et du changement dynamique observé au cours des dernières années dans les réseaux sans fil, mes activités de recherche se sont progressivement orientés des réseaux auto-organisés connectés vers les réseaux connectés par intermittence et opportunistes. De cette façon, mes perspectives de recherche future sont: (1) tirer profit des schémas de mobilité incontrôlée des dispositifs mobiles pervasifs pour améliorer les efforts de perception collaborative; (2) regarder plus en profondeur les techniques de génération de graphes sociaux à partir des traces décrivant les contacts entre les noeuds; (3) étudier quels sont les facteurs ayant un impact (positif ou négatif) sur le succès de la diffusion de l'information dans les réseaux sociaux mobiles, et (4) étudier la possibilité d'adapter le codage réseau à la diffusion d'information dans les réseaux sociaux mobiles.
76

Commande d'un v��hicule hypersonique �� propulsion a��robie : mod��lisation et synth��se

Poulain, Fran��ois 28 March 2012 (has links) (PDF)
La propulsion a��robie �� grande vitesse est depuis longtemps identifi��e comme l'un des prochains sauts technologiques �� franchir dans le domaine des lanceurs spatiaux. Cependant, les v��hicules hypersoniques (HSV) fonctionnant dans des domaines de vitesse extr��mement ��lev��es, de nombreuses contraintes et incertitudes entravent les garanties des propri��t��s des contr��leurs. L'objet de cette th��se est d'��tudier la synth��se de commande d'un tel v��hicule.Pour commencer, il s'agit de d��finir un mod��le repr��sentatif d'un HSV exploitable pour la commande. Dans ce travail, nous construisons deux mod��les de HSV. Un pour la simulation en boucle ferm��e, et le second afin de poser pr��cis��ment le probl��me de commande.Nous proposons ensuite une synth��se de commande de la dynamique longitudinale dans le plan vertical de sym��trie. Celle-ci est robuste aux incertitudes de mod��lisation, tol��rante �� des saturations, et n'excite pas les dynamiques rapides n��glig��es. Ses propri��t��s sont ��valu��es sur diff��rents cas de simulation. Puis, une extension est propos��e afin de r��soudre le probl��me de commande simultan��e des dynamiques longitudinale et lat��rale, sous les m��mes contraintes.Ce r��sultat est obtenu par une assignation de fonction de Lyapunov, suite �� une ��tude des dynamiques longitudinale et lat��rale. Par ailleurs, pour traiter les erreurs de poursuite dues aux incertitudes de mod��lisation, nous nous int��ressons au probl��me de r��gulation asymptotique robuste par retour d'��tat. Nous montrons que cette r��gulation peut ��tre accomplie en stabilisant le syst��me augment�� d'un int��grateur de la sortie. Ceci constitue une extension de la structure de contr��le proportionnel-int��gral au cas des syst��mes non lin��aires.
77

Efficient Cache Organization For Application Specific And General Purpose Processors

Rajan, Kaushik 05 1900 (has links)
The performance gap between processor and memory continues to remain a major performance bottleneck in both application specific and general purpose processors. This thesis strives to ease the above bottleneck by exploiting the characteristics of the application domain to improve the cache organization for two distinct processor architectures: (1) application specific processors for packet forwarding, (2) general purpose processors. Packet forwarding algorithms make use of a trie data structure to determine the forwarding route. We observe that the locality characteristics of the nodes at various levels of such a trie are different. Nodes that are closer to the root node, especially those that are immediate children of the root node (level-one nodes), exhibit higher temporal locality than nodes lower down the trie. Based on this observation we propose a novel Heterogeneously Segmented Cache Architecture (HSCA) that uses separate caches for level-one and lower-level nodes, each with carefully chosen sizes. We also propose a new replacement policy to enhance the performance of HSCA. Performance evaluation indicates that HSCA results in up to 32% reduction in average memory access time over a unified cache that shares the same cache space among all levels of the trie. HSCA also outperforms a previously proposed results cache. The use of a large root branching factor in a forwarding trie forcefully introduces a large number of nodes at level-one. Among these, only nodes that cover prefixes from the routing table are useful while the rest, are superfluous. We find that as many as 75% of the level-one nodes are superfluous. This leads to a skewed distribution of useful nodes among the cache sets of the level-one nodes cache. We propose a novel two-level mapping framework that achieves a better nodes to cache set mapping and hence incurs fewer conflict misses. Two-level mapping first aggregates nodes into Initial Partitions (IPs) using lower order bits and then remaps them from IPs into Refined Partitions (RPs), that form sets, based on some higher order bits. It provides flexibility in placement by allowing each IP to choose a different remap function. We propose three schemes conforming to the framework. A speedup in average memory access time of as much as 16% is gained over HSCA. In general purpose processor architectures, the design objectives of caches at various levels of the hierarchy are different. To ensure low access latencies, L1 caches are small and have low associativities, making them more susceptible to conflict misses. The extent of conflict misses incurred is governed by the placement function and the memory access patterns exhibited by the program. We propose a mechanism to learn the access characteristics of the program at runtime by analyzing the repetitive phases of program. We then make use of the two-level mapping framework to dynamically adapt the placement function. Further, we elegantly incorporate two-level mapping into the cache organization without increasing the cache access latency. Performance evaluation reveals that the proposed adaptive placement mechanism eliminates 32—36% of misses on average over a range of cache sizes. To prevent expensive off-chip accesses, L2 caches are larger and have higher associativities. Hence, the replacement policy plays a significant role in determining L2 cache performance. Further, as the inherent temporal locality in memory accesses is filtered out by the L1 cache, an L2 cache using the widely prevalent LRU replacement policy incurs significantly higher misses than the optimal replacement policy (OPT). We propose to bridge this gap through a novel replacement strategy that mimics the replacement decisions of OPT. The L2 cache is logically divided into two components, a Shepherd Cache (SC) with a simple FIFO replacement and a Main Cache (MC) with an emulation of optimal replacement. The SC plays the dual role of caching lines and shepherding the replacement decisions close to optimal for MC. Our proposed organization can cover 40% of the gap between LRU and OPT, resulting in 7% overall speedup.
78

Détection de la retransmission sélective sur les réseaux de capteurs

Haddad, Edgard 04 1900 (has links)
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables. / The selective forwarding attack is a serious threat in wireless sensor networks (WSN), especially in surveillance systems. Nodes can maliciously delete some sensitive data packets, which could destroy the value of the data assembled in the network and reduce its sensors availability. After describing the drawbacks of the existing systems in this thesis, we will present a lightweight security system based on sending fake reports used to identify selective forwarding attacks. The great advantage in our approach is that the base station expects a number of packets at a specific time. Therefore, it will be able to detect missing or delayed packets. Theoretical analysis shows that the proposed system can identify this type of attack, which will improve the robustness of the network under conditions of a good tradeoff between the security, reliability and communication overhead. Our system can achieve a high ratio of identification when facing a large number of malicious nodes, while the communication overhead can be controlled within reasonable bounds.
79

Evaluating I/O scheduling techniques at the forwarding layer and coordinating data server accesses / Avaliação de técnicas de escalonamento de E/S na camada de encaminhamento e coordenação de acesso aos servidores de dados

Bez, Jean Luca January 2016 (has links)
Em ambientes de Computação de Alto Desempenho, as aplicações científicas dependem dos Sistemas de Arquivos Paralelos (SAP) para obter desempenho de Entrada/Saída (E/S), especialmente ao lidar com grandes quantidades de dados. No entanto, E/S ainda é um gargalo para um número crescente de aplicações, devido à diferença histórica entre a velocidade de processamento e de acesso aos dados. Para aliviar a concorrência causada por milhares de nós que acessam um número significativamente menor de servidores SAP, normalmente nós intermediários de E/S são adicionados entre os nós de processamento e o sistema de arquivos. Cada nó intermediário encaminha solicitações de vários clientes para o sistema, uma configuração que dá a este componente a oportunidade de executar otimizações como o escalonamento de requisições de E/S. O objetivo desta dissertação é avaliar diferentes algoritmos de escalonamento, na camada de encaminhamento de E/S, cuja finalidade é melhorar o padrão de acesso das aplicações, agregando e reordenando requisições para evitar padrões que são conhecidos por prejudicar o desempenho. Demonstramos que os escalonadores FIFO (First In, First Out), HBRR (Handle-Based Round-Robin), TO (Time Order), SJF (Shortest Job First) e MLF (Multilevel Feedback) são apenas parcialmente eficazes porque o padrão de acesso não é o principal fator que afeta o desempenho na camada de encaminhamento de E/S, especialmente para requisições de leitura Um novo algoritmo de escalonamento chamado TWINS é proposto para coordenar o acesso de nós intermediários de E/S aos servidores de dados do sistema de arquivos paralelo. Nossa abordagem reduz a concorrência nos servidores de dados, um fator previamente demonstrado como reponsável por afetar negativamente o desempenho. O algoritmo proposto é capaz de melhorar o tempo de leitura de arquivos compartilhados em até 28% se comparado a outros algoritmos de escalonamento e em até 50% se comparado a não fazer o encaminhamento de requisições de E/S. / In High Performance Computing (HPC) environments, scientific applications rely on Parallel File Systems (PFS) to obtain Input/Output (I/O) performance especially when handling large amounts of data. However, I/O is still a bottleneck for an increasing number of applications, due to the historical gap between processing and data access speed. To alleviate the concurrency caused by thousands of nodes accessing a significantly smaller number of PFS servers, intermediate I/O nodes are typically employed between processing nodes and the file system. Each intermediate node forwards requests from multiple clients to the parallel file system, a setup which gives this component the opportunity to perform optimizations like I/O scheduling. The objective of this dissertation is to evaluate different scheduling algorithms, at the I/O forwarding layer, that work to improve concurrent access patterns by aggregating and reordering requests to avoid patterns known to harm performance. We demonstrate that the FIFO (First In, First Out), HBRR (Handle- Based Round-Robin), TO (Time Order), SJF (Shortest Job First) and MLF (Multilevel Feedback) schedulers are only partially effective because the access pattern is not the main factor that affects performance in the I/O forwarding layer, especially for read requests. A new scheduling algorithm, TWINS, is proposed to coordinate the access of intermediate I/O nodes to the parallel file system data servers. Our approach decreases concurrency at the data servers, a factor previously proven to negatively affect performance. The proposed algorithm is able to improve read performance from shared files by up to 28% over other scheduling algorithms and by up to 50% over not forwarding I/O requests.
80

Evaluating I/O scheduling techniques at the forwarding layer and coordinating data server accesses / Avaliação de técnicas de escalonamento de E/S na camada de encaminhamento e coordenação de acesso aos servidores de dados

Bez, Jean Luca January 2016 (has links)
Em ambientes de Computação de Alto Desempenho, as aplicações científicas dependem dos Sistemas de Arquivos Paralelos (SAP) para obter desempenho de Entrada/Saída (E/S), especialmente ao lidar com grandes quantidades de dados. No entanto, E/S ainda é um gargalo para um número crescente de aplicações, devido à diferença histórica entre a velocidade de processamento e de acesso aos dados. Para aliviar a concorrência causada por milhares de nós que acessam um número significativamente menor de servidores SAP, normalmente nós intermediários de E/S são adicionados entre os nós de processamento e o sistema de arquivos. Cada nó intermediário encaminha solicitações de vários clientes para o sistema, uma configuração que dá a este componente a oportunidade de executar otimizações como o escalonamento de requisições de E/S. O objetivo desta dissertação é avaliar diferentes algoritmos de escalonamento, na camada de encaminhamento de E/S, cuja finalidade é melhorar o padrão de acesso das aplicações, agregando e reordenando requisições para evitar padrões que são conhecidos por prejudicar o desempenho. Demonstramos que os escalonadores FIFO (First In, First Out), HBRR (Handle-Based Round-Robin), TO (Time Order), SJF (Shortest Job First) e MLF (Multilevel Feedback) são apenas parcialmente eficazes porque o padrão de acesso não é o principal fator que afeta o desempenho na camada de encaminhamento de E/S, especialmente para requisições de leitura Um novo algoritmo de escalonamento chamado TWINS é proposto para coordenar o acesso de nós intermediários de E/S aos servidores de dados do sistema de arquivos paralelo. Nossa abordagem reduz a concorrência nos servidores de dados, um fator previamente demonstrado como reponsável por afetar negativamente o desempenho. O algoritmo proposto é capaz de melhorar o tempo de leitura de arquivos compartilhados em até 28% se comparado a outros algoritmos de escalonamento e em até 50% se comparado a não fazer o encaminhamento de requisições de E/S. / In High Performance Computing (HPC) environments, scientific applications rely on Parallel File Systems (PFS) to obtain Input/Output (I/O) performance especially when handling large amounts of data. However, I/O is still a bottleneck for an increasing number of applications, due to the historical gap between processing and data access speed. To alleviate the concurrency caused by thousands of nodes accessing a significantly smaller number of PFS servers, intermediate I/O nodes are typically employed between processing nodes and the file system. Each intermediate node forwards requests from multiple clients to the parallel file system, a setup which gives this component the opportunity to perform optimizations like I/O scheduling. The objective of this dissertation is to evaluate different scheduling algorithms, at the I/O forwarding layer, that work to improve concurrent access patterns by aggregating and reordering requests to avoid patterns known to harm performance. We demonstrate that the FIFO (First In, First Out), HBRR (Handle- Based Round-Robin), TO (Time Order), SJF (Shortest Job First) and MLF (Multilevel Feedback) schedulers are only partially effective because the access pattern is not the main factor that affects performance in the I/O forwarding layer, especially for read requests. A new scheduling algorithm, TWINS, is proposed to coordinate the access of intermediate I/O nodes to the parallel file system data servers. Our approach decreases concurrency at the data servers, a factor previously proven to negatively affect performance. The proposed algorithm is able to improve read performance from shared files by up to 28% over other scheduling algorithms and by up to 50% over not forwarding I/O requests.

Page generated in 0.0734 seconds