• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 304
  • 90
  • 64
  • 41
  • 20
  • 15
  • 12
  • 9
  • 9
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 677
  • 93
  • 79
  • 48
  • 45
  • 44
  • 44
  • 41
  • 40
  • 38
  • 37
  • 37
  • 36
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Ingénierie des données: problèmes de modélisation et d'intégration

Salgado, Ana Carolina 26 May 2008 (has links) (PDF)
Ce rapport présente mes principaux résultats en trois axes de recherche depuis 1989 : les Bases de Données Géographiques, l'Intégration de Données et la prise en compte de la Sémantique dans les Systèmes Pair-a-pair (P2P). Une base de données géographiques est dédiée à la représentation, au stockage et à la récupération d'informations référencées dans l'espace. Les techniques traditionnelles de modélisation n'étaient pas adéquates pour le traitement de ces types de données. La difficulté vient du fait que la plupart des données sont validées en termes de leurs localisation dans l'espace, du temps et de leur disponibilité. Dans ce contexte, notre contribution a été la proposition d'un modèle de données géographiques orienté-objet, MGeo+, et son langage de requête, LinGeo. Nous avons aussi travaillé sur l'analyse des méthodes d'accès spatiales et sur la proposition d'un langage de requêtes visuel et son interface utilisateur. Les systèmes d'intégration de données sont des outils qui offrent un accès uniforme à des sources de données distribuées et hétérogènes. Cela est accompli en identifiant les hétérogénéités et en fournissant une vue unifiée sur les diverses sources. Les utilisateurs envoient leurs requêtes sur cette vue intégrée sans perdre du temps à naviguer sur le Web. Nous travaillons sur la spécification et l'implémentation d'un système d'intégration de données et, en particulier, sur les aspects d'évolution du schéma de médiation et de la qualité des schémas. Les schémas et les instances des sources de données hétérogènes, dynamiques et distribuées contiennent rarement des descriptions sémantiques explicites qui puissent être utilisées pour dériver le sens des éléments du schéma (entité, attributs et associations). L'information sémantique implicite doit être extraite pour clarifier la signification des éléments du schéma. Pour permettre cela, une ontologie du domaine fournira les informations des associations sémantiques entre les termes du vocabulaire partagé par les sources. Cependant, l'information sémantique a un rapport avec la compréhension des gens et est une tâche dépendante du contexte et qui nécessite une connaissance spécifique du domaine. Le concept de contexte peut être employé pour améliorer la prise de décision afin de résoudre l'hétérogénéité sémantique des processus d'intégration de données une fois qu'il aide à la compréhension sémantique du schéma des sources et de leurs contenus. Nous présentons notre proposition d'un modèle de contextes, d'un gestionnaire de contextes indépendant du domaine, d'une ontologie d'informations contextuelles pour l'intégration de données et d'une approche pour la prise en compte des aspects sémantiques dans les systèmes pair-a-pair (P2P).
62

LEICA : un environnement faiblement couplé pour l'intégration d'applications collaboratives

Lima Gomes, Roberta 19 June 2006 (has links) (PDF)
Dans le domaine du Travail Coopératif Assisté par Ordinateur (TCAO) la recherche sinterroge toujours sur les fondements à adopter lors du développement dapplications collaboratives, aussi dites collecticiels, capables de supporter et de répondre au mieux aux besoins des utilisateurs. Outre la multidisciplinarité associée à ce domaine, le fait que les activités collaboratives impliquent plusieurs personnes exprimant des besoins différents et souvent imprévisibles de travail en groupe imposent des fortes exigences en terme dévolutivité et flexibilité pour les applications collaboratives. Manque dun environnement collaboratif intégré assez ouvert, extensible et reconfigurable pour répondre à ces exigences, différentes applications collaboratives doivent être parallèlement employées pour réaliser de manière effective un travail en groupe. Bien quelles soient utilisées pour accomplir une tâche collaborative commune, ces applications sont exécutées de manière indépendante, sans profiter réellement les unes des autres. Lintégration de telles applications permettrait de les faire interagir de manière dynamique tout en combinant de manière contrôlée leurs fonctionnalités. Cette thèse a donc pour objectif de concevoir un nouvel environnement pour rendre possible lintégration de collecticiels existants tout en évitant de considérer des détails internes à ces systèmes. Cet environnement, que nous avons appelé LEICA (Loosely-coupled Environment for Integrating Collaborative Applications) définit une approche générale dintégration faiblement couplée qui sappuie sur la technologie des services Web, sur un système de notification dévénements, et sur des politiques de collaboration pour contrôler les interactions entre applications intégrées. Nous réalisons tout dabord une description informelle de lapproche générale dintégration, où les applications intégrées sont initialement contactées à travers leurs interfaces de services Web et interagissent par la suite en échan geant des notifications dévénements. Leurs interactions sont contrôlées par la politique de collaboration spécifiée pour une session de travail définissant comment lactivité collaborative supportée par une application est affectée par linformation reçue dune ou plusieurs autres applications. Nous spécifions de façon détaillée larchitecture de LEICA permettant de mettre en Suvre une telle approche dintégration. Nous proposons ensuite une méthode pour formaliser et valider cette architecture au moyen du profil UML/SDL et du module de simulation supportés par loutil TAU G2 de Telelogic. Un premier prototype de LEICA a été également implémenté et deux applications collaboratives se trouvent actuellement intégrée à lenvironnement. null null
63

Transport multipoint fiable à très grande échelle : Intégration de critères de coût en environnement Internet hybride satellite / terrestre

de Belleville, Florestan 08 December 2004 (has links) (PDF)
Le travail effectué aborde la problématique des services de communication multipoints fiables à grande échelle. Dans ce contexte, la possibilité de déployer un tel service au moyen d'un satellite géostationnaire émettant en bande Ka est étudiée. L'emploi de la bande $Ka$ introduit cependant une grande variabilité de la qualité de réception au niveau des utilisateurs finals, rendant nécessaire l'utilisation d'un protocole de transport mettant en oeuvre des mécanismes spécifiques. Selon une fonction de coût définie, la comparaison des solutions basées sur IP Multicast classiquement utilisées montre que l'utilisation d'une approche hybride couplant l'utilisation des réseaux satellites et terrestres est avantageuse. Le principe de la proposition, nommée Hybrid Satellite Terrestrial Reliable Multicast, consiste ainsi à choisir, en fonction de la taille du groupe, le moyen de diffusion le plus rentable --- au vu d'une fonction de coût définie. Une description détaillée de la position inclut le comportement de la source et des récepteurs, et le format des messages échangés. Bien que le principe de cette approche soit simple, plusieurs points durs sont liés à la conception des mécanismes adéquats. Ces problèmes concernent notamment la gestion de la fiabilité (utilisation de code correcteur d'erreur ou FEC), l'estimation de taille de très grands groupes, et la reprise des erreurs par voie terrestre (utilisation de réseaux de pair-à-pairs). Ces mécanismes sont étudiés de manière unitaire afin de déterminer des configurations satisfaisantes, et pour détecter des problèmes de performances. Ces mécanismes étant définis, la proposition de transport a été globalement modélisée, de manière à obtenir une vérification fonctionnelle du service proposé. Le protocole a été décrit au moyen du profil UML temps réel TURTLE. Les résultats de validation ont été obtenus grâce à la chaîne d'outils TTool-RTL, et à CADP.
64

Gestion des données efficace en pair-à-pair

Zoupanos, Spyros 09 December 2009 (has links) (PDF)
Le développement de l'internet a conduit à une grande augmentation de l'information disponible pour les utilisateurs. Ces utilisateurs veulent exprimer leur besoins de manière simple, par l'intermédiaire des requêtes, et ils veulent que ces requêtes soient évaluées sans se soucier où les données sont placées ou comment les requêtes sont évaluées. Le travail qui est présenté dans cette thèse contribue à l'objectif de la gestion du contenu du Web de manière déclarative et efficace et il est composé de deux parties. Dans le premier partie, nous présentons OptimAX, un optimiseur pour la langage Active XML qui est capable de reécrire un document Active XML donné dans un autre document équivalent dont l'évaluation sera plus efficace. OptimAX contribue à résoudre le problème d'optimisation des requêtes distribuées dans le cadre d'Active XML et nous présentons deux études de cas. Dans le deuxième partie, nous proposons une solution au problème de l'optimisation d'un point de vue différent. Nous optimisons des requêtes en utilisant un ensemble des requêtes pré-calculées (vues matérialisées). Nous avons développé une plateforme pair-à-pair, qui s'appelle ViP2P (views in peer-to-peer) qui permet aux utilisateurs de publier des documents XML et de spécifier des vues sur ces documents en utilisant une langage de motifs d'arbres. Quand un utilisateur pose une requête, le système essaiera de trouver des vues qui peuvent être combinées pour construire une réécriture équivalente à la requête. Nous avons fait des expérimentations en utilisant des ordinateurs des différents laboratoires en France et nous avons montré que notre plateforme passe à l'échelle jusqu'à plusieurs GB de données.
65

La gestion du trafic P2P dans les réseaux modernes : mesure, identification et contrôle

Valenti, Silvio 21 September 2011 (has links) (PDF)
Suite à la diffusion des applications P2P et en particulier du video P2P, le trafic P2P représente déjà une portion importante de la totalité du trafic sur Internet. Dans ce contexte cette thèse propose des nouveaux outils pour mesurer, identifier et contrôler le trafic P2P. Concernant la classification de trafic, vue l'inefficacité des techniques traditionnelles, nous proposons un nouveau classificateur comportemental, Abacus, spécifique pour les applications P2P-TV. Nos expériences prouvent que Abacus, bien qu'il soit basé sur la simple mesure du numéro des paquets et octets échanges par un hôte, fourni une solution légère et efficace pour l'identification des applications P2P. En suite, nous évaluons l'impact de la réduction des données, due à l'utilisation très commune de Netflow et de l'échantillonnage à niveau paquet, sur la classification de trafic. Nous montrons que Abacus peut être adapté à utiliser ce type des données, et que même si l'échantillonnage de paquets cause une dégradation importante de la qualité des mesurés, cependant la classification reste possible si l'apprentissage du classificateur est fait avec des données eux même échantillonnées. En fin, nous étudions un nouveau type de protocole de transport pour les applications P2P, LEDBAT, proposé et utilisé par la version officielle de BitTorrent. Ce protocole, basé sur le délai, veut implémenter un transport a basse priorité. Nous montrons que LEDBAT atteinte son objectif, mais qu'il souffre d'un problème d'équité entre flux du même type: nous identifions la cause de ce problème et proposons des solutions efficaces, qui rétablissent l'équité.
66

Efficacité et vie privée : de BitTorrent à Skype

Legout, Arnaud 20 January 2012 (has links) (PDF)
Cette thèse présente deux axes de recherche que j'ai menés entre 2004 et 2011. Le premier axe est sur la compréhension sur protocole BitTorrrent. Il recouvre des travaux expérimentaux et de mesures montrant l'efficacité de BitTorrent et expliquant les variations de performances observées dans la littérature et interprétées à tort comme un problème de BitTorrent. Une caractéristique de ces travaux est l'utilisation d'expérimentations à grande échelle (par exemple 10 000 pairs BitTorrent que l'on expérimente dans un environnement contrôlé) et de mesures à grande échelle (par exemple, 148 millions d'adresses IP mesurées sur 3 mois). Le deuxième axe est sur l'étude de la protection de la vie privée sur Internet. Ces travaux montrent que l'on peut surveiller sans infrastructure dédiée (c'est-à-dire d'une seule machine) la quasi-intégralité des utilisateurs de BitTorrent. On montre également qu'en exploitant les communications pair-à-pair dans Skype on peut lier une identité sociale (nom, prénom, adresse email, etc.) à une activité sur Internet (par exemple, une liste de contenus téléchargés avec BitTorrent). On peut également suivre la mobilité des utilisateurs de Skype et on montre que cette mobilité est réelle pour un utilisateur standard. Pour finir, on montre qu'un réseau garantissant l'anonymat, comme Tor, n'offre pas une protection satisfaisante.
67

Confidentialité de données dans les systèmes P2P

Jawad, Mohamed 29 June 2011 (has links) (PDF)
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. ex., médicales ou de recherche) deviennent de plus en plus populaires a cause de l'augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. ex., passage a l'échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. ex., pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l'analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nommé PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d'attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, basé sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs.
68

Efficient XML query processing

Manolescu, Ioana 31 October 2009 (has links) (PDF)
Nous présentons des travaux autour de la thématique de l'évaluation efficace de requêtes XML. Une première partie est liée à l'optimisation de l'accès aux données XML dans des bases de données centralisées. La deuxième partie considère des architectures distribuées à grande échelle pour le partage de données XML.
69

Distributing Social Applications

Leroy, Vincent 10 December 2010 (has links) (PDF)
The so-called Web 2.0 revolution has fundamentally changed the way people interact with the Internet. The Web has turned from a read-only infrastructure to a collaborative platform. By expressing their preferences and sharing private information, the users benefit from a personalized Web experience. Yet, these systems raise several problems in terms of \emph{privacy} and \emph{scalability}. The social platforms use the user information for commercial needs and expose the privacy and preferences of the users. Furthermore, centralized personalized systems require costly data-centers. As a consequence, existing centralized social platforms do not exploit the full extent of the personalization possibilities. In this thesis, we consider the design of social networks and social information services in the context of \emph{peer-to-peer} (P2P) networks. P2P networks are decentralized architecture, thus the users participates to the service and control their own data. This greatly improves the privacy of the users and the scalability of the system. Nevertheless, building social systems in a distributed context also comes with many challenges. The information is distributed among the users and the system has be able to efficiently locate relevant data. The contributions of this thesis are as follow. We define the \emph{cold start link prediction} problem, which consists in predicting the edges of a social network solely from the social information of the users. We propose a method based on a \emph{probabilistic graph} to solve this problem. We evaluate it on a dataset from Flickr, using the group membership as social information. Our results show that the social information indeed enables a prediction of the social network. Thus, the centralization of the information threatens the privacy of the users, hence the need for decentralized systems. We propose \textsc{SoCS}, a \emph{decentralized} algorithm for \emph{link prediction}. Recommending neighbors is a central functionality in social networks, and it is therefore crucial to propose a decentralized approach as a first step towards P2P social networks. \textsc{SoCS} relies on gossip protocols to perform a force-based embedding of the social networks. The social coordinates are then used to predict links among vertices. We show that \textsc{SoCS} is adapted to decentralized systems at it is churn resilient and has a low bandwidth consumption. We propose \textsc{GMIN}, a \emph{decentralized} platform for \emph{personalized services} based on social information. \textsc{GMIN} provides each user with neighbors that share her interests. The clustering algorithm we propose takes care to encompass all the different interests of the user, and not only the main ones. We then propose a personalized \emph{query expansion} algorithm (\textsc{GQE}) that leverages the \textsc{GMIN} neighbors. For each query, the system computes a tag centrality based on the relations between tags as seen by the user and her neighbors.
70

Réseaux pair-à-pair et simulation distribuée<br />Application à la simulation multiagent

Cabani, Adnane 07 December 2007 (has links) (PDF)
Mes travaux de recherche s'intéressent à la simulation distribuée et aux possibilités offertes par le paradigme pair-à-pair. Le modèle pair-à-pair est généralement asymétrique. Il est constitué de réseaux de machines totalement hétérogènes avec des configurations matérielles et des débits de connexion très variables. Les nœuds constituant un tel réseau sont hautement dynamiques et organisés de manière totalement décentralisée.<br /><br />Une étude comparative entre les deux paradigmes grille de calcul et pair-à-pair est présentée. Elle révèle que la taxonomie des systèmes de l'informatique répartie est simpliste et sommaire. Nous en présentons une autre plus raffinée. Elle prend en compte de nouveaux paramètres pouvant aider l'utilisateur à faire un choix entre les grilles de calculs et le modèle pair-à-pair.<br /><br />Ces nouveaux paramètres sont pris en compte dans le développement de la plate-forme PHAC (P2P-based Highly Available Computing Framework) présentée dans ce mémoire. Il s'agit d'un environnement de programmation de haut niveau qui permet de construire un réseau pair-à-pair hautement disponible et adapté aux besoins de l'utilisateur. La plate-forme tient compte des spécificités des réseaux pair-à-pair telles que la volatilité et l'hétérogénéité des pairs. La robustesse du réseau est étudiée selon une voie expérimentale. Les résultats montrent que le réseau est suffisamment robuste pour distribuer des simulations de manière transparente.

Page generated in 0.03 seconds