• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 77
  • 22
  • Tagged with
  • 274
  • 121
  • 85
  • 85
  • 53
  • 48
  • 42
  • 42
  • 40
  • 39
  • 36
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

De l'optimisation à la décomposition de l'ontologique dans la logique de description

Le Pham, Anh 21 January 2008 (has links) (PDF)
Le raisonnement efficace dans une grande base de connaissance en logique de description est un défi actuel en raison des inférences "insurmontables", même pour des langages des logiques de description relativement inexpressives. En effet, la présence des axiomes dans la terminologie (TBox) est une des raisons importantes causant une augmentation exponentielle de la taille de l'espace de recherche explorée par les algorithmes d'inférence. Le raisonnement dans la logique de description (LD), c'est essentiellement le test de la relation de la subsomption entre les concepts. Par conséquent, on cherche toujours les expédients pour optimiser ce raisonnement. Des techniques d'optimisation pour améliorer la performance du raisonneur d'une LD se divisent donc naturellement en trois niveaux. Le premier est le niveau conceptuel considérant des techniques pour optimiser les structures d'axiomes dans la TBox. Le deuxième, le niveau algorithmique examinant des techniques pour réduire les exigences de stockage de l'algorithme de tableaux et pour optimiser le test de la relation de subsomption (satisfaisabilité). Le troisième, l'optimisation de requête cherchant des stratégies d'exécution optimales d'une requête d'interrogation dans une base de connaissances. Dans ce mémoire, nous avons étudié une approche de décomposition de l'ontologie s'appelant la "décomposition overlay" qui vise à un deux objectifs principaux : l'optimisation du raisonnement et la méthodologie de conception des ontologies. D'une part l'optimisation pour laquelle nous cherchons à diviser une ontologie dans un ensemble de sous ontologies dont chacune contient une partie de l'ensemble d'axiomes de l'ontologie originale permet d'obtenir ainsi une réduction relative du temps de raisonnement ; d'autre part la méthodologie de conception qui permet de remplacer une ontologie par un ensemble d'ontologies dans une organisation plus ou moins "optimale". Pour le premier objectif, la décomposition overlay d'une ontologie a comme résultat un ensemble de sous-ontologies regroupées dans une ontologie distribuée, appelée ontologie-décomposante (TBox-décomposante) et représentée par la logique de description distribuée. Intuitivement, le fait de pouvoir raisonner parallèlement sur ces sous-ontologies ayant chacune un espace de recherche réduit peut conduire à une réduction du temps relatif du raisonnement. Une propriété importante de cette ontologie est d'être interprétée dans le même domaine que l'ontologie originale. Ceci est une base qui nous suggère la proposition de deux algorithmes de raisonnement pour cette ontologie-décomposante. Concernant l'objectif de méthodologie de conception, nous introduisons deux méthodes de décomposition de l'ontologie reposant sur la décomposition heuristique des graphes. Une méthode repose sur la décomposition selon les séparateurs minimaux des graphes triangulaires et la seconde sur la décomposition selon la mesure des coupes normalisées des régions d'un graphe.
92

Clustering-based Approximate Answering of Query Result in Large and Distributed Databases

Bechchi, Mounir 15 September 2009 (has links) (PDF)
Les utilisateurs des bases de données doivent faire face au problème de surcharge d'information lors de l'interrogation de leurs données, qui se traduit par un nombre de réponses trop élevé à des requêtes exploratoires. Pour remédier à ce problème, nous proposons un algorithme efficace et rapide, ap- pelé ESRA (Explore-Select-Rearrange Algorithm), qui utilise les résumés SAINTETIQ pré-calculés sur l'ensemble des données pour regrouper les réponses à une requête utilisateur en un ensemble de classes (ou résumés) organisées hiérarchiquement. Chaque classe décrit un sous-ensemble de résul- tats dont les propriétés sont voisines. L'utilisateur pourra ainsi explorer la hiérarchie pour localiser les données qui l'intéressent et en écarter les autres. Les résultats expérimentaux montrent que l'al- gorithme ESRA est efficace et fournit des classes bien formées (i.e., leur nombre reste faible et elles sont bien séparées). Cependant, le modèle SAINTETIQ, utilisé par l'algorithme ESRA, exige que les données soient disponibles sur le serveur des résumés. Cette hypothèse rend inapplicable l'algo- rithme ESRA dans des environnements distribués où il est souvent impossible ou peu souhaitable de rassembler toutes les données sur un même site. Pour remédier à ce problème, nous proposons une collection d'algorithmes qui combinent deux résumés générés localement et de manière autonome sur deux sites distincts pour en produire un seul résumant l'ensemble des données distribuées, sans accéder aux données d'origine. Les résultats expérimentaux montrent que ces algorithmes sont aussi performants que l'approche centralisée (i.e., SAINTETIQ appliqué aux données après regroupement sur un même site) et produisent des hiérarchies très semblables en structure et en qualité à celles produites par l'approche centralisée.
93

Interactions sur le fonctionnement dans les systèmes multi-agents ouverts et hétérogènes

Sabouret, Nicolas 30 November 2009 (has links) (PDF)
Le travail présenté dans ce document s'articule autour de la notion d'interaction dans les systèmes multi-agents (SMA) cognitifs (c'est-à-dire que chaque agent utilise un mécanisme de décision qui dépasse ses capacités de réactions aux stimuli du système et des autres agents), faiblement couplés (c'est-à-dire que les agents ne disposent d'aucune information a priori sur les capacités des autres agents) et ouverts (c'est-à-dire que les interactions ne peuvent pas s'appuyer a priori sur la présence ou l'absence d'autres agents). Les agents de ces systèmes doivent donc s'adapter en cours d'exécution au contexte en fonction des objectifs définis soit a priori, soit en cours d'exécution par l'utilisateur ou par d'autres agents. Notre étude porte sur deux aspects fondamentaux des interactions dans un SMA : la composition des fonctionnalités des agents et la gestion de l'hétérogénéité sémantique. Après avoir re-défini les notions clefs d'agents, de SMA et d'interaction (chapitre 1), nous montrons qu'il est nécessaire dans un contexte ouvert et faiblement couplé que les agents disposent de capacités d'introspection pour se coordonner. Nous définissons précisément les notions d'actions et d'interactions que nous utilisons dans nos travaux. Nous présentons ensuite (chapitre 2) un panorama des travaux existants dans les domaines de la composition de services, de la coordination multi-agents et de la programmation orientée agent et nous montrons qu'ils soulèvent un ensemble de questions communes. Nous définissons ensuite notre modèle d'agent (chapitre 3) et notre modèle d'interaction fondé sur un ensemble de performatifs spécifiques. Nous proposons alors (chapitre 4) deux approches complémentaires pour la composition des fonctionnalités des agents, la première fondée sur la chorégraphique dynamique de services, la seconde sur l'apprentissage par renforcement dans un cadre non-markovien. Nous proposons ensuite (chapitre 5) une solution pour gérer le problème de l'hétérogénéité sémantique entre les agents. Enfin, nous concluons sur les questions soulevées par notre tentative de définition d'un cadre unificateur pour l'interaction dans les SMA ouverts et hétérogènes.
94

An In-situ Visualization Approach for Parallel Coupling and Steering of Simulations through Distributed Shared Memory Files

Soumagne, Jérome 14 December 2012 (has links) (PDF)
Les codes de simulation devenant plus performants et plus interactifs, il est important de suivre l'avancement d'une simulation in-situ, en réalisant non seulement la visualisation mais aussi l'analyse des données en même temps qu'elles sont générées. Suivre l'avancement ou réaliser le post-traitement des données de simulation in-situ présente un avantage évident par rapport à l'approche conventionnelle consistant à sauvegarder--et à recharger--à partir d'un système de fichiers; le temps et l'espace pris pour écrire et ensuite lire les données à partir du disque est un goulet d'étranglement significatif pour la simulation et les étapes consécutives de post-traitement. Par ailleurs, la simulation peut être arrêtée, modifiée, ou potentiellement pilotée, conservant ainsi les ressources CPU. Nous présentons dans cette thèse une approche de couplage faible qui permet à une simulation de transférer des données vers un serveur de visualisation via l'utilisation de fichiers en mémoire. Nous montrons dans cette étude comment l'interface, implémentée au-dessus d'un format hiérarchique de données (HDF5), nous permet de réduire efficacement le goulet d'étranglement introduit par les I/Os en utilisant des stratégies efficaces de communication et de configuration des données. Pour le pilotage, nous présentons une interface qui permet non seulement la modification de simples paramètres, mais également le remaillage complet de grilles ou des opérations impliquant la régénération de grandeurs numériques sur le domaine entier de calcul d'être effectués. Cette approche, testée et validée sur deux cas-tests industriels, est suffisamment générique pour qu'aucune connaissance particulière du modèle de données sous-jacent ne soit requise.
95

Commande prédictive distribuée. Approches appliquées à la régulation thermique des bâtiments.

Morosan, Petru-Daniel 30 September 2011 (has links) (PDF)
Les exigences croissantes sur l'efficacité énergétique des bâtiments, l'évolution du {marché} énergétique, le développement technique récent ainsi que les particularités du poste de chauffage ont fait du MPC le meilleur candidat pour la régulation thermique des bâtiments à occupation intermittente. Cette thèse présente une méthodologie basée sur la commande prédictive distribuée visant un compromis entre l'optimalité, la simplicité et la flexibilité de l'implantation de la solution proposée. Le développement de l'approche est progressif : à partir du cas d'une seule zone, la démarche est ensuite étendue au cas multizone et / ou multisource, avec la prise en compte des couplages thermiques entre les zones adjacentes. Après une formulation quadratique du critère MPC pour mieux satisfaire les objectifs économiques du contrôle, la formulation linéaire est retenue. Pour répartir la charge de calcul, des méthodes de décomposition linéaire (comme Dantzig-Wolfe et Benders) sont employées. L'efficacité des algorithmes distribués proposés est illustrée par diverses simulations.
96

Applications et services DTN pour flotte collaborative de drones

Laplace, Rémi 20 December 2012 (has links) (PDF)
Les travaux présentés dans cette thèse effectuée au LaBRI portent sur la mise en place d'une flotte de drones et le portage sur celle-ci d'applications collaboratives distribuées utilisant des communications asynchrones non sûres. Ces applications sont formalisées grâce au modèle de réétiquetage de graphes Asynchronous Dynamicity Aware Graph Relabeling System (ADAGRS) que nous proposons. Au delà des contributions théoriques, ces travaux ont débouché sur la mise en place du démonstrateur CARUS dans lequel cinq drones se partagent la surveillance d'une grille de 15 points d'incidents potentiels (au sol). Lorsqu'un drone détecte un incident, il s'en rapproche pour le traiter. Le reste de la flotte doit alors prendre en charge les points que ce drone ne traite plus.Les réorganisations nécessaires de la flotte se font en totale autonomie vis-à-vis du sol et sous hypothèse de perte éventuelle de drones et de messages.
97

Méthodes de sélection de collections dans un environnement de recherche d'informations distribuée

Abbaci, Faïza 20 June 2003 (has links) (PDF)
Le thème de cette thèse concerne le domaine de la recherche d'information distribuée (RID). Un système de RID (SRID) de recherche d'information distribuée gère la recherche sur un ensemble de collections de documents distribuées soit sur un réseau local, soit sur un ensemble plus étendu. Un SRID se compose, en général, d'un courtier et d'un ensemble de serveurs. Chaque serveur détient une collection de documents et un système de recherche d'information qui assure la recherche dans cette collection. Le courtier représente la composante avec laquelle l'utilisateur communique. A la réception d'une requête, le courtier choisit un sous-ensemble de serveurs parmi ceux qu'il connaît, auxquels il achemine la requête. Cette opération est appelée sélection de serveurs. Nous proposons dans cette thèse trois méthodes de sélection de serveurs. Ces méthodes ne nécessitent aucune coopération des serveurs interrogés, et aucune mise à jour de données au niveau du courtier.
98

Conception et optimisation distribuée d'un système d'information d'aide à la mobilité urbaine : Une approche multi-agent pour la recherche et la composition des services liés au transport

Zgaya, Hayfa 06 July 2007 (has links) (PDF)
Les travaux de recherche présentés dans cette thèse s'intègrent dans le cadre du projet national VIATIC.MOBILITE du pôle de compétitivité I-TRANS « Le ferroviaire au cœur des systèmes de transports innovants » (http://www.i-trans.org/index.htm). De nos jours, les informations liées au déplacement et à la mobilité dans un réseau de transport représentent sans aucun doute un potentiel important. En effet, on peut imaginer une infinité de services innovants liés à la mobilité, non seulement à destination du grand public, mais également à des entreprises, dans le conseil en mobilité pour leurs plans de déplacement. Le but de cette thèse est donc de fournir un système d'aide à la mobilité qui s'articule autour des motifs de déplacements quotidiens, occasionnels, de tourisme, de culture, etc. avec la possibilité de pouvoir bénéficier d'une information pertinente et exploitable.<br />Ces travaux de recherche visent à mettre en œuvre un Système d'Information de Transport Multimodal (SITM) pour optimiser la gestion de flux des requêtes utilisateurs qui peuvent être nombreuses et simultanées. Dans ce cas, le SITM doit pouvoir procéder par des processus de décomposition des requêtes simultanées en un ensemble de tâches indépendantes. Chaque tâche correspond à un service qui peut être proposé par plusieurs fournisseurs d'information, en concurrence, avec différents couts, formats et temps de réponse. Un fournisseur d'information voulant proposer ses services via le SITM, doit d'abord y enregistrer son système d'information, en assumant la responsabilité des aspects juridiques et qualitatifs de ses données. Le SITM est donc lié à un Réseau informatique Etendu et distribué de Transport Multimodal (RETM) qui comporte plusieurs sources d'information hétérogènes des différents services proposés aux utilisateurs de transport.<br />L'aspect dynamique, distribué et ouvert du problème, nous a conduits à adopter une modélisation multi-agent pour assurer au système une évolution continue et une flexibilité pragmatique. Le système multi-agent proposé s'appuie sur les métaheuristiques pour la recherche et la composition des services; la recherche des services se base sur le paradigme Agent Mobile (AM) utilisant un algorithme d'optimisation dynamique de construction des Plans De Routes (PDR). Cette première étape d'optimisation prépare les parcours des AMs en prenant en considération l'état du RETM. La composition des services utilise les algorithmes évolutionnistes pour optimiser les réponses en termes de coût et de temps, sachant qu'une réponse à une requête utilisateur ne doit pas dépasser un temps maximum autorisé et qu'un utilisateur cherche toujours à avoir le meilleur rapport qualité prix pour les services qu'il demande.<br />Enfin, le SITM prend en considération les éventuelles perturbations sur le RETM (pannes, goulets d'étranglements, etc.) pour satisfaire les requêtes utilisateurs dans tous les cas de figure. Dans ce contexte, nous avons créé un protocole de négociation entre les agents mobiles et les agents responsables des choix des fournisseurs d'information pour les services demandés, ces agents sont appelés agents Ordonnanceurs. Le protocole proposé dépasse les limites d'une communication agent traditionnelle, ce qui nous a incités à associer au système une ontologie flexible qui permet d'automatiser les différents types d'échanges entre les agents grâce à un vocabulaire approprié. <br />Les résultats expérimentaux présentés dans cette thèse justifient l'utilisation du paradigme agent mobile dans notre système qui remplace parfaitement bien les paradigmes classiques telle que l'architecture client/serveur. Les simulations présentées montrent différents scénarios de gestion d'un nombre des requêtes simultanées plus ou moins important. En effet, quelque soit le nombre de requêtes utilisateurs formulées pendant un court laps de temps , le système se charge de leur décomposition, de l'identification des services demandés et des fournisseurs d'information susceptibles d'y répondre.
99

UTILISATION D'UNE PLATE-FORME DE MODELISATION ENVIRONNEMENTALE POUR REPRESENTER LE ROLE D'AMENAGEMENTS HYDRO-AGRICOLES SUR LES FLUX D'EAU ET DE PESTICIDES. APPLICATION AU BASSIN VERSANT DE LA FONTAINE DU THEIL (ILLE ET VILAINE).

Branger, Flora 28 February 2007 (has links) (PDF)
Le projet général dans lequel s'inscrit ce travail vise à développer un outil de modélisation permettant de mieux comprendre et quantifier la circulation de l'eau et de produits phytosanitaires à l'échelle de petits bassins versants ruraux, en prenant notamment en compte l'influence d'aménagements hydro-agricoles ou paysagers (tels que le drainage agricole par tuyaux enterrés, les fossés, le réseau bocager ou les bandes enherbées) sur la qualité de l'eau.En s'appuyant sur le cas d'étude du bassin versant de la Fontaine du Theil (Ille et Vilaine), on a mis en oeuvre une démarche de modélisation hydrologique distribuée fondée sur la représentation des différents aménagements sous forme de modules autonomes et connectés entre eux selon leur positionnement dans l'espace, en s'appuyant sur la plate-forme de modélisation environnementale LIQUID. On a ainsi construit et testé à l'échelle locale deux modules spécifiques représentant de manière simplifiée : le fonctionnement d'une parcelle drainée, incluant les transferts de pesticides,ainsi que le fonctionnement hydrodynamique d'une haie bocagère. On les a ensuite couplés de façon très simple à des modules existant par ailleurs dans LIQUID pour obtenir un modèle hydrologique distribué, qui a été appliqué sur une partie du bassin versant de la Fontaine du Theil (sans solutés).Les résultats sont pour l'instant très sommaires mais montrent un bon fonctionnement du couplage entre ces différents modules et apportent depremiers éléments qualitatifs de validation sur le comportement des haies vis-à-vis des flux souterrains. Ils sont encourageants quant à la possibilité, à travers cette approche, de représenter les interactions entre processus dominants et ainsi de faire progresser la connaissance sur les voies de contamination majeures à l'échelle du bassin. La plate-forme LIQUID, en permettant de construire des modules de conceptions différentes et de lesfaire communiquer dans un même modèle de façon cohérente et conforme à la physique, se révèle bien adaptée.
100

Un schéma d'emprunt de ressources pour l'adaptation du comportement d'applications distribuées

Batouma, Narkoy, Batouma, Narkoy 30 September 2011 (has links) (PDF)
Les systèmes d'exploitation utilisent très généralement une politique de " meilleur effort " (Best-effort) pour exécuter les applications. Tant que les ressources sont suffisantes, les applications s'exécutent normalement mais quand les ressources deviennent insuffisantes, des mécanismes de contrôle sont nécessaires pour continuer à obtenir des services de qualité acceptable. Cette thèse a pour objectif de gérer la QoS des applications distribuées. La première partie propose un middleware totalement décentralisé pour contrôler l'utilisation des ressources des applications distribuées. Cette approche se fonde sur une planification approximative et un schéma d'emprunt de ressources afin d'améliorer la QoS globale du système. Via ce schéma d'emprunt, chaque nœud construit localement une vue détaillée de la disponibilité des ressources dans le système. La présence da la connaissance de la disponibilité des ressources en local permet à chaque nœud de prendre localement des décisions et de planifier les tâches des applications. Pour un contrôle plus fin de l'exécution, la deuxième partie ajoute un support pour l'adaptation du comportement des applications. Le middleware utilise un modèle général des applications sous forme de graphe d'exécution décoré avec les besoins en ressources. Un chemin dans le graphe est une exécution possible de l'application avec une certaine utilité, et ce sont ces chemins qui fournissent les degrés de liberté dont le middleware a besoin pour adapter la consommation des ressources au contexte. Les applications coopèrent avec le middleware dans le processus de gestion de la QoS lors de l'admission puis durant toute l'exécution. Le middleware est le chef d'orchestre et c'est lui qui pilote et c'est lui qui pilote l'exécution des actions des applications (arcs dans le graphe) Pour valider notre approche, un prototype à base d'agents a été réalisé. Les résultats démontrent l'intérêt de notre approche.

Page generated in 0.0426 seconds