• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 9
  • 3
  • Tagged with
  • 21
  • 21
  • 21
  • 21
  • 21
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inférence des accords économiques et des politiques de routage dans l'Internet

Meulle, Mickael 12 March 2007 (has links) (PDF)
L'Internet est le réseau de transport pour les communications IP publiques. Ce réseau est formé d'environ 20 000 systèmes autonomes (AS) interconnectés, appartenant chacun à une entité administrative (un opérateur, une université, une administration, une entreprise...). Chaque AS a une connectivité totale vers l'ensemble des autres AS grâce au fonctionnement distribué du routage BGP (Border Gateway Protocol). Pour garantir la connectivité totale, les administrations des AS négocient des contrats économiques d'interconnexion bilatéraux dans lesquels les deux parties spécifient les différentes destinations accessibles via la liaison, les tarifs et si nécessaire les conditions à respecter pour la qualité et la disponibilité du service de connectivité. Le marché économique des interconnexions entre AS est auto-régulé par la concurrence. Schématiquement, les opérateurs historiques et les réseaux de transport IP fortement interconnectés sont avantagés dans les négociations commerciales, et les fournisseurs de contenu cherchent à minimiser leurs coûts et maximiser la qualité des liaisons. Les accords commerciaux établis entre AS ne sont pas publics alors qu'ils constituent une information clé dans les routages Internet puisqu'ils sont à l'origine des filtres et des préférences pour les routages de chaque opérateur. Dans cette thèse on propose de résoudre plusieurs problématiques de mesure et d'inférence liées à l'économie de l'Internet. Après une introduction à cette économie et à la technologie de routage BGP, on propose une revue de travaux existants dans lesquels les auteurs ont cherché à mesurer et inférer la topologie, le routage et l'économie de l'Internet. Nous traitons dans cette thèse trois problèmes d'inférence inter-dépendants : la mesure des politiques de routage BGP, l'inférence des accords d'interconnexion économiques entre AS et la modélisation des chemins de routage BGP. On propose un jeu d'outils qui apporte un soutien pour un opérateur comme France Télécom à la gestion opérationnelle des réseaux et une base de connaissance de l'économie de l'Internet. Cette base apporte des informations déterminantes lors des négociations d'interconnexion, pour l'étude des modèles économiques d'opérateurs et pour la régulation de certains marchés d'interconnexion.
2

Fouille de graphe et communautaire evaluation avec degenerescence

Giatsidis, Christos 04 December 2013 (has links) (PDF)
L'étude et l'analyse des réseaux sociaux attirent l'attention d'une variété de sciences (psychologie, statistiques, sociologie). Parmi elles, le domaine de la fouille de données offre des outils pour extraire automatiquement des informations utiles sur les propriétés de ces réseaux. Plus précisément, la fouille de graphes répond au besoin de modéliser et d'étudier les réseaux sociaux en particulier dans le cas des grandes communautés que l'on trouve habituellement dans les médias en ligne oú la taille des réseaux sociaux est trop grande pour les méthodes manuelles. La modélisation générale d'un réseau social est basée sur des structures de graphes. Les sommets du graphe représentent les individus et les arêtes des actions différentes ou des types de liens sociaux entre les individus. Une communauté est définie comme un sous-graphe (d'un réseau social) et se caractérise par des liens denses. Plusieurs mesures ont été précédemment proposées pour l'évaluation des divers aspects de la qualité de ces communautés mais la plupart d'entre elles ignorent diverses propriétés des interactions entre individus (par exemple l'orientation de ces liens). Dans la recherche présentée ici, le concept de "k-core" est utilisé comme un moyen d'évaluer les communautés et d'en extraire des informations. La structure de "k-core" mesure la robustesse d'un réseau non orienté en utilisant la dégénérescence du graphe. En outre, des extensions du principe de dégénérescence sont introduites pour des réseaux dont les arêtes possèdent plus d'informations que celles non orientées. Le point de départ est l'exploration des attributs qui peuvent être extraits des graphes non orientés (réseaux sociaux). Sur ce point, la dégénérescence est utilisée pour évaluer les caractéristiques d'une collaboration entre individus et sur l'ensemble de la communauté - une propriété non capturée par les métriques sur les sommets individuels ou par les métriques d'évaluation communautaires traditionnelles. Ensuite, cette méthode est étendue aux graphes pondérés, orientés et signés afin d'offrir de nouvelles mesures d'évaluation pour les réseaux sociaux. Ces nouvelles fonctionnalités apportent des outils de mesure de la collaboration dans les réseaux sociaux oú l'on peut attribuer un poids ou un orientation à une interaction et fournir des moyens alternatifs pour capturer l'importance des individus au sein d'une communauté. Pour les graphes signés, l'extension de la dégénérescence permet de proposer des métriques supplémentaires qui peuvent être utilisées pour modéliser la confiance. De plus, nous introduisons une approche de partitionnement basée sur le traitement du graphe de manière hiérarchique, hiérarchie fournie par le principe de "core expansion sequence" qui partitionne le graphe en différents niveaux ordonnés conformément à la décomposition "k-core". Les modèles théoriques de graphes sont ensuite appliqués sur des graphes du monde réel pour examiner les tendances et les comportements. Les jeux de données explorés incluent des graphes de collaborations scientifiques et des graphes de citations (DBLP et ARXIV), une instance de graphe interne de Wikipédia et des réseaux basés sur la confiance entre les individus (par exemple Epinions et Slashdot). Les conclusions sur ces ensembles de données sont significatives et les modèles proposés offrent des résultats intuitifs.
3

Deriving Semantic Objects from the Structured Web (Inférer des Objects Sémantiques du Web Structuré)

Oita, Marilena 29 October 2012 (has links) (PDF)
This thesis focuses on the extraction and analysis of Web data objects, investigated from different points of view: temporal, structural, semantic. We first survey different strategies and best practices for deriving temporal aspects of Web pages, together with a more in-depth study on Web feeds for this particular purpose. Next, in the context of dynamically-generated Web pages by content management systems, we present two keyword-based techniques that perform article extraction from such pages. Keywords, either automatically acquired through a Tf−Idf analysis, or extracted from Web feeds, guide the process of object identification, either at the level of a single Web page (SIGFEED algorithm), or across different pages sharing the same template (FOREST algorithm). We finally present, in the context of the deep Web, a generic framework which aims at discovering the semantic model of a Web object (here, data record) by, first, using FOREST for the extraction of objects, and second, by representing the implicit rdf:type similarities between the object attributes and the entity of the Web interface as relationships that, together with the instances extracted from the objects, form a labeled graph. This graph is further aligned to a generic ontology like YAGO for the discovery of the graph's unknown types and relations.
4

Représentation et analyses de contenu et de programmes Web

Layaïda, Nabil 23 April 2013 (has links) (PDF)
Aujourd'hui, les contenus et les applications Web sont devenus la principale interface pour effectuer toutes sortes de tâches de la vie quotidienne comme déclarer et payer les impôts, réserver des billets d'avion ou de train, planifier des vacances, effectuer des achats, gérer les comptes bancaires, etc. En conséquence, il devient de plus en plus important d'étudier leurs fondements, d'améliorer leurs capacités, de faciliter leur conception, de vérifier leur fonctionnement, de les optimiser automatiquement et les rendre plus souples et adaptables aux usages et aux différentes plateformes. Dans ce document, nous décrivons d'abord mes activités professionnelles, concernant les années 1998 à 2012. La première partie de ce document contient un résumé de mes activités de recherche, d'encadrement, d'enseignement et charges administrative et collective, ainsi qu'un résumé de mes principaux résultats scientifiques. Dans le reste du document, nous introduisons une logique de raisonnement sur les arbres finis, une procédure de décision correcte et complète pour vérifier la satisfaisabilité d'une formule de la logique ainsi que d'une mise en œuvre efficace en pratique. La logique est une variante du mu-calcul adaptée aux arbres finis et équipée avec des modalités arrières et des nominaux. Ensuite, nous considérons le problème de l'évolution des schémas XML. Dans le contexte en constante évolution du Web, les schémas XML changent continuellement afin de faire face à l'évolution naturelle des entités qu'ils décrivent. Les modifications de schémas peuvent avoir des conséquences importantes dans la mesure où les documents existants peuvent devenir invalides et la programmes les manipulant incorrectes. Nous proposons un cadre unificateur pour déterminer les effets de l'évolution des schémas XML à la fois sur la validité des documents et des requêtes contenues dans ces programmes. Dans la dernière partie du document, nous considérons une algèbre de type équipée de la récursivité, du produit cartésien, des fonctions, de l'intersection, de l'union, et du complément ainsi que des variables de type et une quantification universelle implicite sur ces variables. Nous considérons la relation de sous-typage récemment définie par Castagna et Xu sur des expressions de cette algèbre de type et montrons que le sous-typage peut être décidé avec une complexité EXPTIME et implémenté efficacement en pratique clôturant ainsi à une question ouverte dans la littérature.
5

La recherche d'informations sur le World Wide Web : utilisation des méta-informations dans une architecture de systèmes de recherche coopérants

Bich-Liên, Doan 21 December 2000 (has links) (PDF)
Deux types d'outils de recherche sont actuellement utilisés pour aider l'utilisateur à trouver des informations sur le Web : les moteurs de recherche (Google) et les annuaires thématiques (Yahoo). Cependant les réponses sont fortement entachées de bruit pour les outils universels, et de silence pour les outils thématiques. De plus, le problème qui se pose est de suivre l'augmentation constante du volume de pages Web : la scalabilité. Pour réduire le bruit et le silence nous introduisons un niveau logique avec la notion de document Web au dessus du niveau physique matérialisé par les pages Web. Les documents Web sont organisés en DAG (Directed Acyclic Graph) et sont décrits par des méta-informations. Dans la hiérarchie de documents, nous utilisons la technique de propagation des attributs de méta-informations le long de la hiérarchie de documents. Ceci nous permet de diminuer à la fois le bruit et le silence en combinant des recherches qui portent sur les attributs de m éta-informations avec la recherche traditionnelle dans le texte intégral, tout en exploitant la structure logique des documents Web. Pour le problème de scalabilité, nous proposons une architecture fondée sur 2 nouvelles classes d'outils de recherche. Les outils généralistes ont vocation à parcourir, indexer et connaître tout le Web mais d'une façon superficielle, ils sont par exemple capables d'indiquer tous les sites dont un des domaines concerne l'environnement. Les outils spécialistes ont pour but de collationner et d'indexer toutes les pages de tous les sites d'un domaine de connaissance particulier (par exemple l'environnement). Nous proposons enfin un modèle de dialogue entre ces nouveaux composants permettant de fournir un service global qui adresse à la fois les problèmes de bruit, de précision et de scalabilité. Un spécialiste devient à son tour un document qui s'auto-décrit et participe à l'architecture des systèmes coopérants.
6

TowardsWeb User-Centric Development.

Pascalau, Emilian 07 April 2014 (has links) (PDF)
World Wide Web (WWW) has become the greatest repository of information that man has ever assembled and it is continuously growing. WWW transformed itself into a generative environment that fosters innovation through the advance of technologies and a shift in people's perception of the Weband how they use it. The new WWW or Future Internet is that of an Internet of Services and Internet of Things.Naturally, a series of questions arise from this context: how do you filter things to create more value than you currently get? how do you aggregate things in an intelligent and easy way instead of doing it in your head? The world cannot be described unambiguously, so how can you allow users to deal with the world in their own way, based on their understanding? Levine in his book "Cluetrain manifesto" was arguing that markets are conversations so how can users be involved in the conversation? how can users be empowered with easy consumption of the services, information, things that they found around?However design and deployment of such software capable of direct interaction and empowerment of the end-user is still an issue. We have on one side users that have ideas, but do not have technical background and lack programming skills to do the development by themselves. On the other side, we have large amounts of data, resources and services that could be aggregated both in terms of data, but most important in terms of behavior to innovate and create new things.Our goal in this thesis is to address this lack of tools that are capable of direct interaction andempowerment of end-users, in a unified manner. Thus our main contribution in this thesis is the development of a holistic approach for web based systems that are user-centric and that integrate data, services and behavior available on the Web 2.0.
7

Personnalisation et Adaptation de L'accès à L'information Contextuelle en utilisant un Assistant Intelligent

Asfari, Ounas 19 September 2011 (has links) (PDF)
L'accès à une information pertinente, adaptée aux besoins et au contexte de l'utilisateur est un challenge dans un environnement Internet, caractérisé par une prolifération de ressources hétérogènes. Les travaux présentés dans cette thèse rentrent dans le cadre de la Recherche d'Information (RI) et s'intéressent à la prise en compte du contexte de l'utilisateur pendant la phase de requête. Nous proposons un assistant d'aide à la reformulation de requêtes reposant sur l'utilisation d'une méthode hybride d'expansion de requêtes afin de fournir des résultats personnalisés en fonction du contexte. Cet assistant utilise le profil de l'utilisateur, qui contient les centres d'intérêts et les préférences des utilisateurs, et utilise également le contexte de l'utilisateur qui considère l'état actuel de la tâche courante de l'utilisateur pendant le processus de recherche. Une implémentation de cette approche est réalisée, suivie d'une étude expérimentale. Nous proposons également une procédure d'évaluation qui tient compte l'évaluation des termes d'expansion, générés par notre système de reformulation de requêtes, et de l'évaluation des résultats retournés en utilisant les requêtes reformulées SRQ. Nous montrons sur plusieurs scénarios que notre approche, en particulier celle qui prend en compte la tâche actuelle de l'utilisateur est effectivement plus performante que les approches reposant soit uniquement sur la requête initiale, ou encore sur la requête reformulée en considérant uniquement le profil de l'utilisateur.
8

Politique de contrôle de flux d'information définie par les utilisateurs pour les orchestrations de services. Mise en oeuvre dans un orchestrateur BPEL

DEMONGEOT, Thomas 19 December 2013 (has links) (PDF)
Les Web Services sont aujourd'hui à la base de nombreuses applications de commerce électronique. Aujourd'hui les solutions de sécurité qui sont proposées pour les Web-Services permettent de protéger en confidentialité et en intégrité les communications entre les Web-Services et de contrôler l'accès aux Web-Services. Cependant, le plus souvent, les clients utilisent ces applications sans en connaître le fonctionnement interne. De ce fait, ils n'ont aucune connaissance sur l'usage de leurs données qui est effectué à l'intérieur d'une application. BPEL (Business Process Execution Language) est un langage de programmation permettant d'orchestrer des Web-Services au sein d'une architecture orientée services. Une des fonctionnalités des architectures orientées services est la découverte dynamique des services effectivement utilisés au cours de l'exécution d'une orchestration. De ce fait, l'utilisateur d'un programme BPEL ne peut connaitre avant l'exécution comment et par qui les données qu'il va fournir seront utilisées. Dans le cadre de cette thèse, nous proposons un modèle de politique de contrôle de flux d'information adapté aux architectures orientées services et en particulier aux orchestrations de services. Ce modèle offre aux utilisateurs la possibilité de spécifier des contraintes sur l'usage qui est fait de leurs données personnelles. Les politiques de contrôle de flux d'information définies suivant ce modèle sont définies au cours de l'exécution par l'utilisateur d'une orchestration de services. Les aspects dynamiques des Web-Services conduisent, en effet, à des situations où la politique peut empêcher l'exécution nominale de l'orchestration (par exemple lorsqu'il est fait usage d'un service que l'utilisateur ne connaissait pas avant l'exécution). A cet effet, nous proposons à l'utilisateur d'autoriser dynamiquement des modifications de la politique de contrôle de flux d'information. Afin de lui permettre d'effectuer cette modification, nous proposons dans le cadre de cette thèse un mécanisme permettant à l'utilisateur de disposer d'un maximum d'informations sur l'usage qui est fait de ses données et qui conduit à une violation de la politique de contrôle de flux d'information. Nous avons ensuite appliqué cette approche au langage d'orchestration BPEL. Nous avons en particulier présenté les principaux flux d'information qui interviennent dans ce langage. Nous avons enfin proposé une implémentation de ces mécanismes de contrôle de flux d'information en modifiant un orchestrateur BPEL existant.
9

Apprentissage de Motifs Concis pour le Liage de Donnees RDF

Fan, Zhengjie 04 April 2014 (has links) (PDF)
De nombreux jeux de données de données sont publiés sur le web à l'aide des technologies du web sémantique. Ces jeux de données contiennent des données qui représentent des liens vers des ressources similaires. Si ces jeux de données sont liés entre eux par des liens construits correctement, les utilisateurs peuvent facilement interroger les données à travers une interface uniforme, comme s'ils interrogeaient un jeu de données unique. Mais, trouver des liens corrects est très difficile car de nombreuses comparaisons doivent être effectuées. Plusieurs solutions ont été proposées pour résoudre ce problème : (1) l'approche la plus directe est de comparer les valeurs d'attributs d'instances pour identifier les liens, mais il est impossible de comparer toutes les paires possibles de valeurs d'attributs. (2) Une autre stratégie courante consiste à comparer les instances selon les attribut correspondants trouvés par l'alignement d'ontologies à base d'instances, qui permet de générer des correspondances d'attributs basés sur des instances. Cependant, il est difficile d'identifier des instances similaires à travers les ensembles de données car, dans certains cas, les valeurs des attributs en correspondence ne sont pas les mêmes. (3) Plusieurs méthodes utilisent la programmation génétique pour construire des modèles d'interconnexion afin de comparer différentes instances, mais elles souffrent de longues durées d'exécution. Dans cette thèse, une méthode d'interconnexion est proposée pour relier les instances similaires dans différents ensembles de données, basée à la fois sur l'apprentissage statistique et sur l'apprentissage symbolique. L'entrée est constituée de deux ensembles de données, des correspondances de classes sur les deux ensembles de données et un échantillion de liens "positif" ou "négatif" résultant d'une évaluation de l'utilisateur. La méthode construit un classifieur qui distingue les bons liens des liens incorrects dans deux ensembles de données RDF en utilisant l'ensemble des liens d'échantillons évalués. Le classifieur est composé de correspondances d'attributs entre les classes correspondantes et de deux ensembles de données, qui aident à comparer les instances et à établir les liens. Dans cette thèse, le classifieur est appelé motif d'interconnexion. D'une part, notre méthode découvre des correspondances potentielles entre d'attributs pour chaque correspondance de classe via une méthode d'apprentissage statistique : l'algorithme de regroupement K-medoids, en utilisant des statistiques sur les valeurs des instances. D'autre part, notre solution s'appuie sur un modèle d'interconnexion par une méthode d'apprentissage symbolique : l'espace des versions, basée sur les correspondances d'attributs potentielles découvertes et l'ensemble des liens de l'échantillon évalué. Notre méthode peut résoudre la tâche d'interconnexion quand il n'existe pas de motif d'interconnexion combiné qui couvre tous les liens corrects évalués avec un format concis. L'expérimentation montre que notre méthode d'interconnexion, avec seulement 1% des liens totaux dans l'échantillon, atteint une F-mesure élevée (de 0,94 à 0,99). La F-mesure converge rapidement, ameliorant les autres approches de près de 10%.
10

Un intergiciel gérant des événements pour permettre l'émergence d'interactions dynamiques et ubiquitaires dans l'Internet des services

Pellegrino, Laurent 03 April 2014 (has links) (PDF)
Resource Description Framework (RDF) est devenu un modèle de données pertinentafin de décrire et de modéliser les informations qui sont partagées sur le Web.Cependant, fournir une solution permettant de stocker et de récupérer cesdonnées de manière efficace tout en passant à l'échelle reste un défi majeur.Dans le contexte de cette thèse nous proposons un intergiciel dévoué austockage, à la récupération synchrone mais aussi à la dissémination sélectiveet asynchrone en quasi temps réel d'informations RDF dans un environnementcomplètement distribué. L'objectif est de pouvoir tirer parti des informationsdu passé comme de celles filtrées en quasi temps réel. Contrairement à unegrande majorité de solutions existantes, nous avons avons fait le choixd'éviter le hachage pour indexer les données ce qui nous permet de traiter lesrequêtes à intervalles de manière efficace. Le filtrage des informations enquasi temps réel est permis par l'expression des intérêts à l'aide desouscriptions basées sur le contenu des évènements futurs. Nous avons proposédeux algorithmes qui permettent de vérifier la concordance des évènements RDFavec les souscriptions enregistrées. Les deux algorithmes ont été testésexpérimentalement. En sus de la récupération synchrone et de la diffusionasynchrone d'évènements, nous nous sommes intéressés à améliorer la répartitiondes données RDF qui souffrent de dissymétrie. Finalement, nous avons consacréun effort non négligeable à rendre notre intergiciel modulaire.

Page generated in 0.0816 seconds