121 |
Une architecture parallèle distribuée et tolérante aux pannes pour le protocole interdomaine BGP au cœur de l’InternetHamzeh, Wissam 12 1900 (has links)
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués. / The increasing number of end users has led to an exponential growth in the Internet routing table. The routing table is expected to reach a size of one million prefixes within the coming few years. Besides, current core routers may easily attain hundreds of connected BGP peers simultaneously. In classical monolithic architecture, the BGP protocol runs as a single entity inside the router. This architecture suffers from two drawbacks: scalability and reliability. BGP scalability can be measured in terms of the number of connected peers that can be handled and the size of the routing table. On the other hand, the reliability is a critical issue in core routers. If the BGP instance inside the router fails, all peers’ connections will shutdown and the new reachability state will be propagated across the Internet in a non trivial convergence delay. Although, in current core routers, the resiliency is increased considerably, it’s mainly implemented via a primary-backup redundancy scheme which limits the BGP scalability. In this thesis we address the two mentioned BGP drawbacks by proposing a novel distributed approach to increase both scalability and reliability of BGP without changing the semantic of the protocol. The BGP distributed architecture in the first paper is built to satisfy both requirements: scalability and reliability by adequately exploiting parallelism and module separation. In our model, BGP functionalities are split in a master-slave manner and the RIB (Routing Information Base) is replicated to multiple controller cards, to form a cluster of parallel computing entities. In the second paper, we address the fault tolerance of BGP within the distributed architecture presented in the first paper. We prove analytically that, by adopting the distributed architecture of BGP the availability of BGP will be increased considerably versus a monolithic architecture. In the third paper we propose a distributed parallel scheme called DRTP to partition the BGP routing table on multiple controller cards. DRTP aims at increasing the BGP scalability and the parallelization of the Best Match Prefix algorithm.
|
122 |
Architecture de communication générique pour un système de bus du commerce électroniqueTagmouti, Siham January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
123 |
Recommendation of activity sequences during distributed events / Recommandation de séquences d'activités lors d'événements distribuésNurbakova, Diana 13 December 2018 (has links)
Les événements distribués, se déroulant sur plusieurs jours et/ou sur plusieurs lieux, tels que les conventions, festivals ou croisières, sont de plus en plus populaires ces dernières années et attirant des milliers de participants. Les programmes de ces événements sont généralement très denses, avec un grand nombre d'activités se déroulant en parallèle. Ainsi, choisir les activités à entreprendre est devenu un véritable défi pour les participants. Les systèmes de recommandation peuvent constituer une solution privilégiée dans ce genre d'environnement. De nombreux travaux en recommandation se sont concentrés sur la recommandation personnalisée d'objets spatiaux (points d'intérêts immuables dans le temps ou événements éphémères) indépendants les uns des autres. Récemment, la communauté scientifique s'est intéressée à la recommandation de séquences de points d'intérêts, exploitant des motifs comportementaux des utilisateurs et incorporant des contraintes spatio-temporelles pour recommander un itinéraire de points d'intérêts. Néanmoins, très peu de travaux se sont intéressés à la problématique de la recommandation de séquence d'activités, problème plus difficile du fait du caractère éphémère des objets à recommander. Dans cette thèse, nous proposons tout d'abord une formalisation du problème de la recommandation de séquences d'activités. Dans ce cadre, nous proposons et discutons une classification des types d'influences pouvant avoir un impact sur l'estimation de l'intérêt des utilisateurs dans les activités. Ensuite, nous proposons ANASTASIA, une approche de recommandation personnalisée de séquences d'activités lors des événements distribués. Notre approche est basée sur trois composants clés : (1) l'estimation de l'intérêt d'un utilisateur pour une activité, prenant en compte différentes influences, (2) l'intégration de motifs comportementaux d'utilisateurs basés sur leurs historiques d'activités et (3) la construction d'un planning ou séquence d'activités prenant en compte les contraintes spatio-temporelles de l'utilisateur et des activités. Nous explorons ainsi des méthodes issus de l'apprentissage de séquences et de l'optimisation discrète pour résoudre le problème. Enfin, nous démontrons le manque de jeu de données librement accessibles pour l'évaluation des algorithmes de recommandation d'événements et de séquences d'événements. Nous pallions à ce problème en proposant deux jeux de données, librement accessibles, que nous avons construits au cours de la thèse: Fantasy_db et DEvIR. Fantasy_db comporte des données de participation à des événements lors d'une croisière, recueillies lors d'une étude utilisateur, tandis que DEvIR réunit des données de participation au Comic Con de San Diego, convention majeure dans le domaine. / Multi-day events such as conventions, festivals, cruise trips, to which we refer to as distributed events, have become very popular in recent years, attracting hundreds or thousands of participants. Their programs are usually very dense, making it challenging for the attendees to make a decision which events to join. Recommender systems appear as a common solution in such an environment. While many existing solutions deal with personalised recommendation of single items, recent research focuses on the recommendation of consecutive items that exploits user's behavioural patterns and relations between entities, and handles geographical and temporal constraints. In this thesis, we first formulate the problem of recommendation of activity sequences, classify and discuss the types of influence that have an impact on the estimation of the user's interest in items. Second, we propose an approach (ANASTASIA) to solve this problem, which aims at providing an integrated support for users to create a personalised itinerary of activities. ANASTASIA brings together three components, namely: (1) estimation of the user’s interest in single items, (2) use of sequential influence on activity performance, and (3) building of an itinerary that takes into account spatio-temporal constraints. Thus, the proposed solution makes use of the methods based on sequence learning and discrete optimisation. Moreover, stating the lack of publicly available datasets that could be used for the evaluation of event and itinerary recommendation algorithms, we have created two datasets, namely: (1) event attendance on board of a cruise (Fantasy_db) based on a conducted user study, and (2) event attendance at a major comic book convention (DEvIR). This allows to perform evaluation of recommendation methods, and contributes to the reproducibility of results.
|
124 |
Vérification formelle d'algorithmes distribués en PlusCal-2 / Formal Verification of distributed algorithms using PlusCal-2Akhtar, Sabina 09 May 2012 (has links)
La conception d'algorithmes pour les systèmes concurrents et répartis est subtile et difficile. Ces systèmes sont enclins à des blocages et à des conditions de course et sont par conséquent difficiles à reproduire La vérification formelle est une technique essentielle pour modéliser le système et ses propriétés et s'assurer de sa correction au moyen du model checking. Des langages formels tels TLA+ permettent de décrire des algorithmes compliqués de manière assez concise, mais les concepteurs d'algorithmes trouvent souvent difficile de modéliser un algorithme par un ensemble de formules. Dans ce mémoire nous présentons le langage PlusCal-2 qui vise à allier la simplicité de pseudo-code à la capacité d'être vérifié formellement. PlusCal-2 améliore le langage algorithmique PlusCal conçu par Lamport en levant certaines restrictions de ce langage et en y ajoutant de nouvelles constructions. Notre langage est destiné à la description d'algorithmes à un niveau élevé d'abstraction. Sa syntaxe ressemble à du pseudo-code mais il est tout à fait expressif et doté d'une sémantique formelle. Pour calculer la dépendance conditionnelle pour les algorithmes en PlusCal-2 nous exploitons des informations sur la localité des actions et nous générons des prédicats d'indépendance. Nous proposons également une adaptation d'un algorithme de réduction par ordre partiel dynamique pour une variante du model checker TLC. Enfin, nous proposons une variante d'un algorithme de réduction par ordre partiel statique s'appuyant sur une relation de dépendance constante, et son implantation au sein de TLC. Nous présentons nos résultats expérimentaux et une preuve de correction / Designing sound algorithms for concurrent and distributed systems is subtle and challenging. These systems are prone to deadlocks and race conditions, and are therefore hard to reproduce. Formal verification is a key technique to model the system and its properties and then perform verification by means of model checking. Formal languages like TLA+ have the ability to describe complicated algorithms quite concisely, but algorithm designers often find it difficult to model an algorithm in the form of formulas. In this thesis, we present PlusCal-2 that aims at being similar to pseudo-code while being formally verifiable. PlusCal-2 improves upon Lamport?s PlusCal algorithm language by lifting some of its restrictions and adding new constructs. Our language is intended for describing algorithms at a high level of abstraction. Finite instances of algorithms described in PlusCal-2 can be verified through the TLC model checker. The second contribution presented in this thesis is a study of partial-order reduction methods using conditional and constant dependency relation. To compute conditional dependency for PlusCal-2 algorithms, we exploit their locality information and present them in the form of independence predicates. We also propose an adaptation of a dynamic partial-order reduction algorithm for a variant of the tlc model checker. As an alternative to partial order reduction based on conditional dependency, we also describe a variant of a static partial-order reduction algorithm for the tlc model checker that relies on constant dependency relation. We also present our results for the experiments along with the proof of correctness
|
125 |
Préservation de la confidentialité des données externalisées dans le traitement des requêtes top-k / Privacy preserving top-k query processing over outsourced dataMahboubi, Sakina 21 November 2018 (has links)
L’externalisation de données d’entreprise ou individuelles chez un fournisseur de cloud, par exemple avec l’approche Database-as-a-Service, est pratique et rentable. Mais elle introduit un problème majeur: comment préserver la confidentialité des données externalisées, tout en prenant en charge les requêtes expressives des utilisateurs. Une solution simple consiste à crypter les données avant leur externalisation. Ensuite, pour répondre à une requête, le client utilisateur peut récupérer les données cryptées du cloud, les décrypter et évaluer la requête sur des données en texte clair (non cryptées). Cette solution n’est pas pratique, car elle ne tire pas parti de la puissance de calcul fournie par le cloud pour évaluer les requêtes.Dans cette thèse, nous considérons un type important de requêtes, les requêtes top-k, et le problème du traitement des requêtes top-k sur des données cryptées dans le cloud, tout en préservant la vie privée. Une requête top-k permet à l’utilisateur de spécifier un nombre k de tuples les plus pertinents pour répondre à la requête. Le degré de pertinence des tuples par rapport à la requête est déterminé par une fonction de notation.Nous proposons d’abord un système complet, appelé BuckTop, qui est capable d’évaluer efficacement les requêtes top-k sur des données cryptées, sans avoir à les décrypter dans le cloud. BuckTop inclut un algorithme de traitement des requêtes top-k qui fonctionne sur les données cryptées, stockées dans un nœud du cloud, et retourne un ensemble qui contient les données cryptées correspondant aux résultats top-k. Il est aidé par un algorithme de filtrage efficace qui est exécuté dans le cloud sur les données chiffrées et supprime la plupart des faux positifs inclus dans l’ensemble renvoyé. Lorsque les données externalisées sont volumineuses, elles sont généralement partitionnées sur plusieurs nœuds dans un système distribué. Pour ce cas, nous proposons deux nouveaux systèmes, appelés SDB-TOPK et SD-TOPK, qui permettent d’évaluer les requêtes top-k sur des données distribuées cryptées sans avoir à les décrypter sur les nœuds où elles sont stockées. De plus, SDB-TOPK et SD-TOPK ont un puissant algorithme de filtrage qui filtre les faux positifs autant que possible dans les nœuds et renvoie un petit ensemble de données cryptées qui seront décryptées du côté utilisateur. Nous analysons la sécurité de notre système et proposons des stratégies efficaces pour la mettre en œuvre.Nous avons validé nos solutions par l’implémentation de BuckTop, SDB-TOPK et SD-TOPK, et les avons comparé à des approches de base par rapport à des données synthétiques et réelles. Les résultats montrent un excellent temps de réponse par rapport aux approches de base. Ils montrent également l’efficacité de notre algorithme de filtrage qui élimine presque tous les faux positifs. De plus, nos systèmes permettent d’obtenir une réduction significative des coûts de communication entre les nœuds du système distribué lors du calcul du résultat de la requête. / Outsourcing corporate or individual data at a cloud provider, e.g. using Database-as-a-Service, is practical and cost-effective. But it introduces a major problem: how to preserve the privacy of the outsourced data, while supporting powerful user queries. A simple solution is to encrypt the data before it is outsourced. Then, to answer a query, the user client can retrieve the encrypted data from the cloud, decrypt it, and evaluate the query over plaintext (non encrypted) data. This solution is not practical, as it does not take advantage of the computing power provided by the cloud for evaluating queries.In this thesis, we consider an important kind of queries, top-k queries,and address the problem of privacy-preserving top-k query processing over encrypted data in the cloud.A top-k query allows the user to specify a number k, and the system returns the k tuples which are most relevant to the query. The relevance degree of tuples to the query is determined by a scoring function.We first propose a complete system, called BuckTop, that is able to efficiently evaluate top-k queries over encrypted data, without having to decrypt it in the cloud. BuckTop includes a top-k query processing algorithm that works on the encrypted data, stored at one cloud node,and returns a set that is proved to contain the encrypted data corresponding to the top-k results. It also comes with an efficient filtering algorithm that is executed in the cloud on encypted data and removes most of the false positives included in the set returned.When the outsourced data is big, it is typically partitioned over multiple nodes in a distributed system. For this case, we propose two new systems, called SDB-TOPK and SD-TOPK, that can evaluate top-k queries over encrypted distributed data without having to decrypt at the nodes where they are stored. In addition, SDB-TOPK and SD-TOPK have a powerful filtering algorithm that filters the false positives as much as possible in the nodes, and returns a small set of encrypted data that will be decrypted in the user side. We analyze the security of our system, and propose efficient strategies to enforce it.We validated our solutions through implementation of BuckTop , SDB-TOPK and SD-TOPK, and compared them to baseline approaches over synthetic and real databases. The results show excellent response time compared to baseline approaches. They also show the efficiency of our filtering algorithm that eliminates almost all false positives. Furthermore, our systems yieldsignificant reduction in communication cost between the distributed system nodes when computing the query result.
|
126 |
Contrôle robuste d'EDPs linéaires hyperboliques par méthodes de backstepping / Robust design of backstepping controllers for systems of linearhyperbolic PDEsAuriol, Jean 04 July 2018 (has links)
Les systèmes d'Equations aux Dérivées Partielles Hyperboliques Linéaires du Premier Ordre (EDPs HLPO) permettent de modéliser de nombreux systèmes de lois de conservation. Ils apparaissent, par exemple, lors de la modélisation de problèmes de trafic routier, d'échangeurs de chaleurs, ou de problèmes multiphasiques. Différentes approches ont été proposées pour stabiliser ou observer de tels systèmes. Parmi elles, la méthode de backstepping consiste à transformer le système originel en un système découplé pour lequel la synthèse de la loi de commande est plus simple. Les contrôleur obtenus par cette méthode sont explicites.Dans la première partie de cette thèse, nous présentons des résultats généraux de théorie des systèmes. Plus précisément, nous résolvons les problèmes de stabilisation en temps fini pour une classe générale d'EDPs HLPO. Le temps de convergence minimal atteignable dépend du nombre d'actionneurs disponibles. Les observateurs associés à ces contrôleurs (nécessaires pour envisager une utilisation industrielle de tels contrôleurs) sont obtenus via une approche duale. Un des avantages importants de l'approche considérée dans cette thèse est de montrer que l'espace généré par les solutions de l'EDPs HLPO considérée est isomorphe à l'espace généré par les solutions d'une système neutre à retards distribués.Dans la seconde partie de cette thèse, nous montrons la nécessité d'un changement de stratégie pour résoudre les problèmes de contrôle robuste. Ces questions surviennent nécessairement lorsque sont considérées des applications industrielles pour lesquelles les différents paramètres du système peuvent être mal connus, pour lesquelles des dynamiques peuvent avoir été négligées, de même que des retards agissant sur la commande ou sur la mesure, ou encore pour lesquels les mesures sont bruitées. Nous proposons ainsi quelques modifications sur les lois de commande précédemment développées en y incorporant plusieurs degrés de liberté permettant d'effectuer un compromis entre performance et robustesse. L'analyse de stabilité et de robustesse sous-jacente est rendue possible en utilisant l'isomorphisme précédemment introduit. / Linear First-Order Hyperbolic Partial Differential Equations (LFOH PDEs) represent systems of conservation and balance law and are predominant in modeling of traffic flow, heat exchanger, open channel flow or multiphase flow. Different control approaches have been tackled for the stabilization or observation of such systems. Among them, the backstepping method consists to map the original system to a simpler system for which the control design is easier. The resulting controllers are explicit.In the first part of this thesis, we develop some general results in control theory. More precisely, we solve the problem of finite-time stabilization of a general class of LFOH PDEs using the backstepping methodology. The minimum stabilization time reachable may change depending on the number of available actuators. The corresponding boundary observers (crucial to envision industrial applications) are obtained through a dual approach. An important by-product of the proposed approach is to derive an explicit mapping from the space generated by the solutions of the considered LFOH PDEs to the space generated by the solutions of a general class of neutral systems with distributed delays. This mapping opens new prospects in terms of stability analysis for LFOH PDEs, extending the stability analysis methods developed for neutral systems.In the second part of the thesis, we prove the necessity of a change of strategy for robust control while considering industrial applications, for which the major limitation is known to be the robustness of the resulting control law to uncertainties in the parameters, delays in the loop, neglected dynamics or disturbances and noise acting on the system. In some situations, one may have to renounce to finite-time stabilization to ensure the existence of robustness margins. We propose some adjustments in the previously designed control laws by means of several degrees of freedom enabling trade-offs between performance and robustness. The robustness analysis is fulfilled using the explicit mapping between LFOH PDEs and neutral systems previously introduced.
|
127 |
Towards a holistic construction of opportunistic large-scale distributed systems / Vers une construction holistique des systèmes distribués opportunistes à large échelleBouget, Simon 20 September 2018 (has links)
Avec le développement de l'IoT, des Smart Cities, et d'autres systèmes large-échelle extrêmement hétérogènes, les systèmes distribués deviennent à la fois plus complexes et plus omniprésents de jour en jour et seront bientôt difficiles à gérer avec les approches courantes. Pour masquer cette difficulté croissante et faciliter leur gestion à tous les stages de leur cycle de vie, cette thèse soutient qu'une approche holistique est nécessaire, où la fonction d'un système est considérée comme un tout, et qui se détache du comportement des composants individuels. En parallèle à cette montée en abstraction, les blocs de base doivent devenir plus autonomes, capable de réagir aux circonstances et d'automatiser la plupart des tâches de bas niveau. Nous proposons trois contributions vers cette vision : 1) Pleiades : une approche holistique pour construire des structures complexes par assemblage, facile à programmer et soutenue par un moteur d'exécution auto-organisant et efficace, basé sur des protocoles épidémiques. 2) Mind-the-Gap : un protocole épidémique de détection des partitions dans les MANETs, grâce à des agrégations opportunistes et à une représentation stochastique compacte du réseau. 3) HyFN: une extension des protocoles épidémiques traditionnels, capable de résoudre efficacement le problème des k-plus-lointains-voisins, ce dont les méthodes standards s'étaient révélées incapables jusqu'à maintenant. Nous considérons que ces trois contributions montrent que notre vision est réaliste, et mettent en valeur ses qualités. / With the advent of the IoT, Smart Cities, and other large-scale extremely heterogeneous systems, distributed systems are becoming both more complex and pervasive every day and will soon be intractable with current approaches. To hide this growing complexity and facilitate the management of distributed systems at all stages of their life-cycle, this thesis argues for a holistic approach, where the function of a system is considered as a whole, moving away from the behavior of individual components. In parallel to this rise in abstraction levels, basic building blocks need to become more autonomous and able to react to circumstances, to alleviate developers and automate most of the low level operations. We propose three contributions towards this vision : 1) Pleiades: a holistic approach to build complex structures by assembly, easily programmable and supported by an efficient, self-organizing gossip-based run-time engine. 2) Mind-the-Gap: a gossip-based protocol to detect partitions and other large connectivity changes in MANETs, thanks to periodic opportunistic aggregations and a stochastic representation of the network membership. 3) HyFN: an extension to traditional gossip protocols that is able to efficiently solve the k-Furthest-Neighbors problem, which standard methods have been unable to up to now. We believe these three contributions demonstrate our vision is realistic and highlight its attractive qualities.
|
128 |
Decentralizing news personalization systems / Décentralisation des systèmes de personnalisationBoutet, Antoine 08 March 2013 (has links)
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût. / The rapid evolution of the web has changed the way information is created, distributed, evaluated and consumed. Users are now at the center of the web and becoming the most prolific content generators. To effectively navigate through the stream of available news, users require tools to efficiently filter the content according to their interests. To receive personalized content, users exploit social networks and recommendation systems using their private data. However, these systems face scalability issues, have difficulties in coping with interest dynamics, and raise a multitude of privacy challenges. In this thesis, we exploit peer-to-peer networks to propose a recommendation system to disseminate news in a personalized manner. Peer-to-peer approaches provide highly-scalable systems and are an interesting alternative to Big brother type companies. However, the absence of any global knowledge calls for collaborative filtering schemes that can cope with partial and dynamic interest profiles. Furthermore, the collaborative filtering schemes must not hurt the privacy of users. The first contribution of this thesis conveys the feasibility of a fully decentralized news recommender. The proposed system constructs an implicit social network based on user profiles that express the opinions of users about the news items they receive. News items are disseminated through a heterogeneous gossip protocol that (1) biases the orientation of the dissemination, and (2) amplifies dissemination based on the level of interest in each news item. Then, we propose obfuscation mechanisms to preserve privacy without sacrificing the quality of the recommendation. Finally, we explore a novel scheme leveraging the power of the distribution in a centralized architecture. This hybrid and generic scheme democratizes personalized systems by providing an online, cost-effective and scalable architecture for content providers at a minimal investment cost.
|
129 |
Contribution des moyens de production dispersés aux courants de défaut. Modélisation des moyens de production et algorithmes de détection de défaut. / Fault current contribution from Distributed Generators (DGs). Modelling of DGs and fault detection algorithms.Le, Trung Dung 28 February 2014 (has links)
Les travaux de la thèse se focalisent sur la protection des réseaux de distribution HTA en présence des générateurs distribués (éoliennes, fermes solaires,...). Dans un premier temps, un état de l’art a été réalisé sur les comportements des générateurs en creux de tension, leurs impacts sur le système de protection et les pistes de solution proposées pour y remédier. L’étape suivante est la mise au point d’algorithmes directionnels de détection de défauts, sans mesure de tension. Ces algorithmes s’appuient sur la décomposition en composantes symétriques des courants mesurés. Ces relais doivent empêcher le déclenchement intempestif de protections de surintensité dû au courant de défaut provenant des générateurs distribués. Ils sont moins coûteux par rapport à ceux traditionnels car les capteurs de tension, qui sont indispensables pour ces derniers, peuvent être enlevés. Après détection d’un défaut sur critère de seuil simple (max de I ou max de I résiduel), la direction est évaluée à l’aide d’un algorithme en delta basé sur les rapports courants inverse-homopolaire ou inverse-direct, selon le type de défaut (monophasé ou biphasé). En se basant sur ces rapports, un classifieur SVM (Support Vector Machines), entrainé préalablement à partir des simulations, donne ensuite l’estimation de la direction du défaut (amont ou aval par rapport au relais). La bonne performance de ces algorithmes a été montrée dans la thèse pour différents paramètres du réseau et en présence de différents types de générateurs. Le développement de tels algorithmes favorise la mise en œuvre des protections en réseau, qui pourraient être installées dans les futurs Smart Grids. / This research focuses on the protection of MV distribution networks with Distributed Generators (DGs), such as wind farms or photovoltaic farms, etc. First, the state of art is carried out on fault behaviour of DGs, their impacts on protection system and the mitigation solutions. Next, algorithms are developed for directional relays without voltage sensors. Based on the symmetrical component method, these algorithms help the overcurrent protections to avoid the false tripping issue due to fault contribution of DGs. With the suppression of voltage sensors, such directional relays become cheaper in comparison with the traditional ones. Following the fault detection (the phase or residual current reaches the pick-up value) and depending on fault type (line-to-ground or line-to-line fault), the ratios between the variation (before and during fault) of negative-zero sequence or negative-positive sequence currents are calculated. From these ratios, a SVM (Support Vector Machines) classifier estimates the fault direction (upstream or downstream the detector). The classifier is trained beforehand from transient simulations. This survey shows good performances of the directional algorithms with different network parameters and different kinds of DGs. Such algorithms could be implemented in protections along the feeders in the future smart grids.
|
130 |
Dimensionnement et intégration d'un chiffre symétrique dans le contexte d'un système d'information distribué de grande taille.Roche, Thomas 29 January 2010 (has links) (PDF)
L'évolution des architectures de systèmes d'information n'a de cesse depuis l'avènement des télécommunications. Pour s'adapter aux nouvelles dimensions en nombre d'utilisateurs et taille des données, les systèmes d'information modernes sont répartis et hétérogènes. Ce constat ouvre de nouveaux enjeux de sûreté de fonctionnement pour les systèmes d'information, il s'agit de garantir disponibilité, fiabilité, innocuité, confidentialité, intégrité et maintenabilité tout au long du cycle de vie du système. C'est dans ce contexte que cette thèse a été conduite, les fruits des travaux de recherche gravitent autour de plusieurs notions de la sûreté de fonctionnement : – La confidentialité et l'intégrité avec le design, l'implémentation et l'étude de robustesse des chiffres symétriques par bloc. Les chiffres DES, AES et CS-Cipher ont été étudiés dans un spectre large rassemblant les implémentations logicielles et matérielles et leurs performances, la maléabilité des structures de diffusion, la cryptographie conventionnelle et les attaques par canaux auxiliaires. – La fiabilité avec le développement d'algorithmes auto-tolérants aux fautes et la certification de résultats. Cette étude est dédiée aux systèmes distribués de calcul tels que les clusters, les grilles ou encore les réseaux pair-à-pairs utilisés pour des calculs d'algèbre linéaires.
|
Page generated in 0.1945 seconds