• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 33
  • 5
  • 1
  • Tagged with
  • 74
  • 38
  • 23
  • 22
  • 14
  • 12
  • 11
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

On the efficient distributed evaluation of SPARQL queries / Sur l'évaluation efficace de requêtes SPARQL distribuées

Graux, Damien 15 December 2016 (has links)
Le Web Sémantique est une extension du Web standardisée par le World Wide Web Consortium. Les différents standards utilisent comme format de base pour les données le Resource Description Framework (rdf) et son langage de requêtes nommé sparql. Plus généralement, le Web Sémantique tend à orienter l’évolution du Web pour permettre de trouver et de traiter l’information plus facilement. L'augmentation des volumes de données rdf disponibles tend à faire rendre standard la distribution des jeux de données. Par conséquent, des évaluateurs de requêtes sparql efficaces et distribués sont de plus en plus nécessaires. Pour faire face à ces challenges, nous avons commencé par comparer plusieurs évaluateurs sparql distribués de l'état-de-l'art tout en adaptant le jeu de métriques considéré. Ensuite, une analyse guidée par des cas typiques d'utilisation nous a conduit à définir de nouveaux champs de développement dans le domaine de l'évaluation distribuée de sparql. Sur la base de ces nouvelles perspectives, nous avons développé plusieurs évaluateurs efficaces pour ces différents cas d'utilisation que nous avons comparé expérimentalement. / The Semantic Web standardized by the World Wide Web Consortium aims at providing a common framework that allows data to be shared and analyzed across applications. Thereby, it introduced as common base for data the Resource Description Framework (rdf) and its query language sparql.Because of the increasing amounts of rdf data available, dataset distribution across clusters is poised to become a standard storage method. As a consequence, efficient and distributed sparql evaluators are needed.To tackle these needs, we first benchmark several state-of-the-art distributed sparql evaluators while adapting the considered set of metrics to a distributed context such as e.g. network traffic. Then, an analysis driven by typical use cases leads us to define new development areas in the field of distributed sparql evaluation. On the basis of these fresh perspectives, we design several efficient distributed sparql evaluators which fit into each of these use cases and whose performances are validated compared with the already benchmarked evaluators. For instance, our distributed sparql evaluator named sparqlgx offers efficient time performances while being resilient to the loss of nodes.
2

Virtualization and Distribution of the BGP Control Plane / Virtualisation et distribution du plan de contrôle BGP

Oprescu, Mihaela Iuniana 18 October 2012 (has links)
L'Internet est organisé sous la forme d'une multitude de réseaux appelés Systèmes Autonomes (AS). Le Border Gateway Protocol (BGP) est le langage commun qui permet à ces domaines administratifs de s'interconnecter. Grâce à BGP, deux utilisateurs situés n'importe où dans le monde peuvent communiquer, car ce protocole est responsable de la propagation des messages de routage entre tous les réseaux voisins. Afin de répondre aux nouvelles exigences, BGP a dû s'améliorer et évoluer à travers des extensions fréquentes et de nouvelles architectures. Dans la version d'origine, il était indispensable que chaque routeur maintienne une session avec tous les autres routeurs du réseau. Cette contrainte a soulevé des problèmes de scalabilité, puisque le maillage complet des sessions BGP internes (iBGP) était devenu difficile à réaliser dans les grands réseaux. Pour couvrir ce besoin de connectivité, les opérateurs de réseaux font appel à la réflection de routes (RR) et aux confédérations. Mais si elles résolvent un problème de scalabilité, ces deux solutions ont soulevé des nouveaux défis car elles sont accompagnées de multiples défauts; la perte de diversité des routes candidates au processus de sélection BGP ou des anomalies comme par exemple des oscillations de routage, des déflections et des boucles en font partie. Les travaux menés dans cette thèse se concentrent sur oBGP, une nouvelle architecture pour redistribuer les routes externes à l'intérieur d'un AS. `A la place des classiques sessions iBGP, un réseau de type overlay est responsable (I) de l'´echange d'informations de routage avec les autres AS, (II) du stockage distribué des routes internes et externes, (III) de l'application de la politique de routage au niveau de l'AS et (IV) du calcul et de la redistribution des meilleures routes vers les destinations de l'Internet pour tous les routeurs clients présents dans l'AS / The Internet is organized as a collection of networks called Autonomous Systems (ASes). The Border Gateway Protocol (BGP) is the glue that connects these administrative domains. Communication is thus possible between users worldwide and each network is responsible of sharing reachability information to peers through BGP. Protocol extensions are periodically added because the intended use and design of BGP no longer fit the current demands. Scalability concerns make the required internal BGP (iBGP) full mesh difficult to achieve in today's large networks and therefore network operators resort to confederations or Route Reflectors (RRs) to achieve full connectivity. These two options come with a set of flaws of their own such as route diversity loss, persistent routing oscillations, deflections, forwarding loops etc. In this dissertation we present oBGP, a new architecture for the redistribution of external routes inside an AS. Instead of relying on the usual statically configured set of iBGP sessions, we propose to use an overlay of routing instances that are collectively responsible for (I) the exchange of routes with other ASes, (II) the storage of internal and external routes, (III) the storage of the entire routing policy configuration of the AS and (IV) the computation and redistribution of the best routes towards Internet destinations to each client router in the AS
3

Modélisation probabiliste d’impression à l’échelle micrométrique / Probabilistic modeling of prints at the microscopic scale

Nguyen, Quoc Thong 18 May 2015 (has links)
Nous développons des modèles probabilistes pour l’impression à l’échelle micrométrique. Tenant compte de l’aléa de la forme des points qui composent les impressions, les modèles proposés pourront être ultérieurement exploités dans différentes applications dont l’authentification de documents imprimés. Une analyse de l’impression sur différents supports papier et par différentes imprimantes a été effectuée. Cette étude montre que la grande variété de forme dépend de la technologie et du papier. Le modèle proposé tient compte à la fois de la distribution du niveau de gris et de la répartition spatiale de l’encre sur le papier. Concernant le niveau de gris, les modèles des surfaces encrées/vierges sont obtenues en sélectionnant les distributions dans un ensemble de lois de forme similaire aux histogrammes et à l’aide de K-S critère. Le modèle de répartition spatiale de l’encre est binaire. Le premier modèle consiste en un champ de variables indépendantes de Bernoulli non-stationnaire dont les paramètres forment un noyau gaussien généralisé. Un second modèle de répartition spatiale des particules d’encre est proposé, il tient compte de la dépendance des pixels à l’aide d’un modèle de Markov non stationnaire. Deux méthodes d’estimation ont été développées, l’une approchant le maximum de vraisemblance par un algorithme de Quasi Newton, la seconde approchant le critère de l’erreur quadratique moyenne minimale par l’algorithme de Metropolis within Gibbs. Les performances des estimateurs sont évaluées et comparées sur des images simulées. La précision des modélisations est analysée sur des jeux d’images d’impression à l’échelle micrométrique obtenues par différentes imprimantes. / We develop the probabilistic models of the print at the microscopic scale. We study the shape randomness of the dots that originates the prints, and the new models could improve many applications such as the authentication. An analysis was conducted on various papers, printers. The study shows a large variety of shape that depends on the printing technology and paper. The digital scan of the microscopic print is modeled in: the gray scale distribution, and the spatial binary process modeling the printed/blank spatial distribution. We seek the best parametric distribution that takes account of the distributions of the blank and printed areas. Parametric distributions are selected from a set of distributions with shapes close to the histograms and with the Kolmogorov-Smirnov divergence. The spatial binary model handles the wide diversity of dot shape and the range of variation of spatial density of inked particles. At first, we propose a field of independent and non-stationary Bernoulli variables whose parameters form a Gaussian power. The second spatial binary model encompasses, in addition to the first model, the spatial dependence of the inked area through an inhomogeneous Markov model. Two iterative estimation methods are developed; a quasi-Newton algorithm which approaches the maximum likelihood and the Metropolis-Hasting within Gibbs algorithm that approximates the minimum mean square error estimator. The performances of the algorithms are evaluated and compared on simulated images. The accuracy of the models is analyzed on the microscopic scale printings coming from various printers. Results show the good behavior of the estimators and the consistency of the models.
4

Indexation de documents audio : Cas des grands volumes de données

Rougui, Jamal 16 July 2008 (has links) (PDF)
Cette thèse est consacrée à l’'élaboration et l’'évaluation des techniques visant à renforcer la robustesse des systèmes d’'indexation de documents audio au sens du locuteur. L’'indexation audio au sens du locuteur consiste à reconnaître l’'identité des locuteurs ainsi que leurs interventions dans un ux continu audio ou dans une base de données d’'archives audio, ne contenant que la parole. Dans ce cadre nous avons choisi de structurer les documents audio (restreints à des journaux radiodiffusés) selon une classication en locuteurs. La technique utilisée repose sur l’'extraction des coefficients mel-cepstrales, suivi par l’'apprentissage statistique de modèles de mélange de gaussiennes (MMG) et sur la détection des changements de locuteur au moyen de test d’'hypothèse Bayésien. Le processus est incrémental : au fur et à mesure que de nouveaux locuteurs sont détectés, ils sont identifiés à ceux de la base de données ou bien, le cas échéant, de nouvelles entrées sont créées dans la base. Comme toute structure de données adaptée au problème incrémental, notre système d’'indexation permet d’'effectuer la mise à jour des modèles MMG de locuteur à l’'aide de l’'algorithme fusion des MMG. Cet algorithme à été conçu à la fois pour créer une structure ascendante en regroupant deux à deux les modèles GMM jugés similaires. Enn, à travers de deux études utilisant des structures arborescentes binaire ou n’'aire, une réexion est conduite an de trouver une structure ordonnée et adaptée au problème incrémental. Quelques pistes de réexions sur l’'apport de l’'analyse vidéo sont discutées et les besoins futurs sont explorés.
5

Nouvelle approche méthodologique pour la prise en compte de la flexibilité dans les interactions entre molecules biologiques: les Modes Statiques

Brut, Marie 05 March 2009 (has links) (PDF)
La connaissance des propriétés structurales et physico-chimiques des biomolécules passe par une compréhension fine des interactions intra et inter-moléculaires. L'abondance des données à traiter et l'importance des enjeux socio-économiques nécessitent actuellement la mise en place de moyens d'analyse à haut débit, tels que la recherche in silico. Les algorithmes développés jusque-là demeurent cependant peu satisfaisants, particulièrement pour le traitement de la flexibilité conformationnelle des macromolécules. Nous proposons dans cette thèse une nouvelle méthode, les Modes Statiques, afin d'obtenir un algorithme prenant en compte la flexibilité totale du système. Cette approche, fondée sur le concept de déformations induites entre deux macromolécules en interaction, vise à déterminer tous les modes de déformation possibles d'une molécule. Chaque déformation, appelé Mode Statique, résulte d'une excitation extérieure sur un atome de la biomolécule. Ces modes sont calculés en fonction des constantes de force contenues dans le modèle énergétique. Ils sont ensuite stockés pour des utilisations futures, du docking en particulier. Le problème du docking se réduit alors à des interaction entre sites, les déformations moléculaires émanant des Modes Statiques pré-calculés. Ce travail a donné lieu au développement d'un code, Flexible, dont nous présentons les premières applications aux propriétés de diverses molécules uniques : des polymères thermosensibles aux enzymes allostériques, en passant par les acides nucléiques.
6

Une architecture de communication pour environnements virtuels distribués à grande échelle basée sur les canaux multipoint

Barza, Laurentiu 02 July 2004 (has links) (PDF)
Le sujet de la thèse est situé à la confluence du IP multicast et des environnements virtuelles. La thèse présente l'élaboration, l'implémentation et les expérimentations d'une architecture de communication pour une application d'environnement virtuel à grande échelle. Le but de cette architecture est de permettre à un grand nombre de participants, situés dans un monde virtuel, de communiquer entre eux (chaque participant communique seulement avec ses voisins), à travers différent s flux de données (vidéo, audio, texte). Dans la conception de cette architecture nous avons considéré les objectifs suivants : minimiser le trafic dans le réseau, permettre à un très grand nombre de participants d'être connectés simultanément dans le inonde virtuel, accepter des participants avec des capacités très différentes, donner à chacun d'entre eux la possibilité de Communiquer selon ses capacités et de prendre en compte les contraintes des temps réel spécifique à des flux multimédia. Nous utilisons le multipoint comme moyen de communication de groupe et en particulier les aspects contrôle de congestion afin de réduire le trafic dans le réseau. Un modèle simplifié de multipoint ayant été proposé à l'IETF (le modèle SSM ou Source Spécifique Multicast), nous avons choisi de l'utiliser dans notre architecture, à cause du fait qu'il était mieux adapté pour exprimer les différentes préférences des participants. Pour réaliser la communication dans des mondes virtuels, nous avons défini une architecture composée de deux nivelles de filtrage des données. Au premier niveau de filtrage, le monde virtuel est dynamiquement découpé en zones selon la densité de participants dans le monde. Un participant connait tous les autres participants présents dans sa zone. Au deuxième niveau de filtrage, le participant calcule ses voisins dans le monde virtuel et commence a communiquer avec eux selon leurs Capacités. Un participant peut transmettre des différents flux des données. Chaque flux est envoyé sur un canal SSM différent. Les expériences réalisées ont démontré la faisabilité et les performances de notre architecture comparent aux autres architectures proposées dans la littérature. On a intégré le module de communication proposé dans V-Eye, une application de monde virtuel développée par le projet Planète.
7

Visualisation interactive et extensible de programmes parallèles à base de processus légers

De Oliveira Stein, Benhur 21 October 1999 (has links) (PDF)
Cette thèse s'est déroulée au sein du projet APACHE (CNRS-INPG-INRIA-UJF) dont l'objectif est l'étude de l'ensemble des aspects liés à la mise en oeuvre efficace et portable d'applications irrégulières et dont les études sont concrétisées par l'environnement Athapascan. Dans l'environnement Athapascan le «débogage pour les performances» est basé sur le traçage logiciel des exécutions des applications parallèles suivi de l'analyse des traces et de la visualisation des exécutions tracées. L'objectif de la thèse était de fournir aux programmeurs un outil de visualisation les aidant à identifier les "erreurs de performances" de leurs programmes en leur donnant une représentation aussi claire que possible de l'exécution de ces programmes. La principale contribution de la thèse est la conception et la réalisation d'un outil appelé Pajé combinant les trois propriétés essentielles d'interactivité, d'extensibilité et d'aptitude au passage à l'échelle. L'extensibilité permet de prendre en compte l'absence de stabilisation des modèles de programmation parallèles et d'offrir la possibilité d'ajouter à Pajé des visualisations non envisagées lors de sa conception. Elle est assurée par une architecture en graphe de modules génériques, communiquants par des protocoles bien spécifiés. L'interactivité donne au programmeur le contrôle sur la visualisation par des actions telles que déplacement dans le temps ou inspection du contenu des objets visualisés, etc. Pour limiter le volume de données qu'elle implique de conserver en mémoire, une structure de données appelée fenêtre de visualisation a été définie ainsi que les algorithmes permettant de la faire glisser efficacement dans le temps. L'aptitude au passage à l'échelle est liée à la capacité de représenter un nombre potentiellement important d'objets graphiques (processus légers, communications, tâches, etc...) évoluant dynamiquement. Elle est essentiellement assurée en facilitant la visualisation à différents niveaux d'abstraction, en sorte que le passage d'un niveau à un autre simule une action de zoom.
8

Déploiement et contrôle d'applications parallèles sur grappes de grandes tailles

Martin, Cyrille 15 December 2003 (has links) (PDF)
La taille grandissante des grappes de calcul pose le problème du "passage à l'échelle" des applications qui s'exécutent sur ces plates-formes. Ceci concerne les applications de calculs scientifiques et les applications permettant d'exploiter ces plates-formes (administration, surveillance de charge, etc...). Dans ce travail de thèse nous nous sommes intéressés au déploiement d'une application parallèle sur une grappe de grande taille. L'objectif de cette étude était de fournir une méthode de déploiement efficace sur des grappes composées de milliers de noeuds et pouvant être facilement étendue aux grilles de calcul. Le déploiement inclut d'une part le lancement du programme parallèle sur tous les noeuds et d'autre part la mise en oeuvre d'un environnement de communication entre ces instances de programme. L'efficacité est obtenue par la parallélisation systématique des différentes initiations d'exécution distante. Ces travaux montrent que le problème de la diffusion optimale d'une requête d'exécution est similaire au problème largement étudié de la diffusion d'un message sur un réseau complètement maillé. Nous proposons une bibliothèque, "Taktuk", permettant de réaliser un ordonnancement dynamique (par vol de travail) des communications (appels d'exécution distante) de manière générique. L'utilisabilité et le bon fonctionnement de l'outil que nous proposons sont validés par son utilisation et sa diffusion dans plusieurs projets~: KaTools (inclus et utilisé par la distribution Linux Mandrake Clic), OAR (gestionnaire de travaux pour grappes) et Inuktitut (bibliothèque de communication d'ATHAPASCAN).
9

Homogénéisation Numérique de Paramètres Pétrophysiques Pour des Maillages Déstructurés en Simulation de Réservoir

Hontans, Thierry 13 July 2000 (has links) (PDF)
HOMOGENEISATION NUMERIQUE DE PARAMETRES PETROPHYSIQUES POUR DES MAILLAGES DESTRUCTURES EN SIMULATION DE RESERVOIR : Dans cette thèse on s?intéresse aux méthodes d?homogénéisations qui nécessitent la résolution de problèmes locaux soumis à des conditions aux limites. Dans la première partie on étudie une méthode avec des conditions aux limites linéaires applicables sur des maillages déstructurés. On montre qu?en utilisant une méthode d?éléments finis mixtes [resp. conformes] on obtient une approximation numérique inférieure [resp. supérieure] du tenseur équivalent. On démontre également un résultat de stabilité pour la G-convergence parabolique. Des approximations numériques du tenseur équivalent calculées sur des domaines 2D et 3D déstructurés sont données ainsi que des simulations d?écoulements monophasiques et diphasiques permettant de valider la méthode. Dans la deuxième partie on définit une nouvelle méthode de mise à l?échelle permettant de prendre en compte des conditions aux limites quelconques appliquées aux problèmes locaux. Sur des maillages déstructurés le tenseur équivalent est déterminé en minimisant l?écart des énergies dissipées (ou. des vitesses moyennes) locales et globales. On obtient, en utilisant les techniques du contrôle optimal, un algorithme de calcul effectif qui permet de retrouver, pour les conditions aux limites classiques, les résultats bien connus. Des résultats de convergence et des estimations d?erreurs sont établis. On montre enfin que cette méthode est stable pour la G-convergence et quelques essais numériques 2D sont présentés.
10

Application des modes statiques à l'étude de la flexibilité des protéines : vers un processus de docking

Renvez, Guillaume 25 June 2010 (has links) (PDF)
La compréhension des interactions entre molécules biologiques passe aujourd'hui par le développement d'outils de simulation à l'échelle atomique. De la conception de médicaments aux biotechnologies, la modélisation tient un rôle important en matière d'interprétation et de prédiction de ces phénomènes. Les algorithmes existants se montrent peu satisfaisants, car ils ne traitent pas correctement la flexibilité conformationnelle des macromolécules. C'est dans ce contexte qu'a été développée au sein du laboratoire une méthode nouvelle qui permet le traitement de la flexibilité totale du système : les modes statiques. Cette méthode, basée sur le concept "induced-fit" d'arrimage de macromolécules (ou docking), est capable de calculer les déformations d'une molécule induites par une force appliquée sur un atome dans une direction de l'espace : un mode statique. L'efficacité de ce modèle a été démontré par des travaux effectués sur des biomolécules telles que les protéines et les acides nucléiques. Grâce à cette méthode, le docking se résume au calcul d'interactions entre sites réactionnels et des déformations induites. Nous montrons dans cette thèse comment les modes statiques permettent de "cartographier" les déformations d'une molécule. Cette méthode nous a également permis de décrire comment réagi une molécule (le peptide Amyloïde ß(1-16)) suite au passage d'un ion métallique, notamment les changements conformationnels engendrés. Cette application que nous avons appelée "sonde électrostatique", est également le premier pas vers un processus de docking moléculaire utilisant le modèle des modes statiques.

Page generated in 0.0452 seconds