• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approches fonctionnelles de la programmation parallèle et des méta-ordinateurs. Sémantiques, implantations et certification.

Gava, Frédéric 12 December 2005 (has links) (PDF)
Certains problèmes nécessitent des performances que seules les machines massivement parallèles<br />ou les méta-ordinateurs peuvent offrir. L'écriture d'algorithmes pour ce type de machines demeure<br />plus difficile que pour celles strictement séquentielles et la conception de langages adaptés est un sujet de<br />recherche actif nonobstant la fréquente utilisation de la programmation concurrente. En effet, la conception<br />d'un langage de programmation est le résultat d'un compromis qui détermine l'équilibre entre les différentes<br />qualités du langage telles que l'expressivité, la sûreté, la prédiction des performances, l'efficacité ou<br />bien la simplicité de la sémantique.<br />Dans des travaux antérieurs à cette thèse, il a été entrepris d'approfondir la position intermédiaire que le<br />paradigme des patrons occupe. Toutefois il ne s'agissait pas de concevoir un ensemble a priori fixé d'opérations<br />puis de concevoir des méthodologies pour la prédiction des performances, mais de fixer un modèle<br />de parallélisme structuré (avec son modèle de coûts) puis de concevoir un ensemble universel d'opérations<br />permettant de programmer n'importe quel algorithme de ce modèle. L'objectif est donc le suivant : parvenir<br />à la conception de langages universels dans lesquels le programmeur peut se faire une idée du coût à partir<br />du code source.<br />Cette thèse s'inscrit dans le cadre du projet «CoordinAtion et Répartition des Applications Multiprocesseurs<br />en objective camL» (CARAML) de l'ACI GRID dont l'objectif était le développement de bibliothèques<br />pour le calcul haute-performance et globalisé autour du langage OCaml. Ce projet était organisé en trois<br />phases successives : sûreté et opérations data-parallèles irrégulières mono-utilisateur ; opérations de multitraitement<br />data-parallèle ; opérations globalisées pour la programmation de grilles de calcul.<br />Ce tapuscrit est organisé en 3 parties correspondant chacune aux contributions de l'auteur dans chacune<br />des phases du projet CARAML : une étude sémantique d'un langage fonctionnel pour la programmationBSP<br />et la certification des programmes écrits dans ce langage ; une présentation d'une primitive de composition<br />parallèle (et qui permet aussi la programmation d'algorithmes «diviser-pour-régner» parallèles), un exemple<br />d'application via l'utilisation et l'implantation de structures de données parallèles et une extension pour les<br />entrées/sorties parallèles en BSML ; l'adaption du langage pour le méta-calcul.
2

Distributed frequent subgraph mining in the cloud / Fouille de sous-graphes fréquents dans les nuages

Aridhi, Sabeur 29 November 2013 (has links)
Durant ces dernières années, l’utilisation de graphes a fait l’objet de nombreux travaux, notamment en bases de données, apprentissage automatique, bioinformatique et en analyse des réseaux sociaux. Particulièrement, la fouille de sous-graphes fréquents constitue un défi majeur dans le contexte de très grandes bases de graphes. De ce fait, il y a un besoin d’approches efficaces de passage à l’échelle pour la fouille de sous-graphes fréquents surtout avec la haute disponibilité des environnements de cloud computing. Cette thèse traite la fouille distribuée de sous-graphe fréquents sur cloud. Tout d’abord, nous décrivons le matériel nécessaire pour comprendre les notions de base de nos deux domaines de recherche, à savoir la fouille de sous-graphe fréquents et le cloud computing. Ensuite, nous présentons les contributions de cette thèse. Dans le premier axe, une nouvelle approche basée sur le paradigme MapReduce pour approcher la fouille de sous-graphes fréquents à grande échelle. L’approche proposée offre une nouvelle technique de partitionnement qui tient compte des caractéristiques des données et qui améliore le partitionnement par défaut de MapReduce. Une telle technique de partitionnement permet un équilibrage des charges de calcul sur une collection de machine distribuée et de remplacer la technique de partitionnement par défaut de MapReduce. Nous montrons expérimentalement que notre approche réduit considérablement le temps d’exécution et permet le passage à l’échelle du processus de fouille de sous-graphe fréquents à partir de grandes bases de graphes. Dans le deuxième axe, nous abordons le problème d’optimisation multi-critères des paramètres liés à l’extraction distribuée de sous-graphes fréquents dans un environnement de cloud tout en optimisant le coût monétaire global du stockage et l’interrogation des données dans le nuage. Nous définissons des modèles de coûts de gestion et de fouille de données avec une plateforme de fouille de sous-graphe à grande échelle sur une architecture cloud. Nous présentons une première validation expérimentale des modèles de coûts proposés. / Recently, graph mining approaches have become very popular, especially in certain domains such as bioinformatics, chemoinformatics and social networks. One of the most challenging tasks in this setting is frequent subgraph discovery. This task has been highly motivated by the tremendously increasing size of existing graph databases. Due to this fact, there is urgent need of efficient and scaling approaches for frequent subgraph discovery especially with the high availability of cloud computing environments. This thesis deals with distributed frequent subgraph mining in the cloud. First, we provide the required material to understand the basic notions of our two research fields, namely graph mining and cloud computing. Then, we present the contributions of this thesis. In the first axis, we propose a novel approach for large-scale subgraph mining, using the MapReduce framework. The proposed approach provides a data partitioning technique that consider data characteristics. It uses the densities of graphs in order to partition the input data. Such a partitioning technique allows a balanced computational loads over the distributed collection of machines and replace the default arbitrary partitioning technique of MapReduce. We experimentally show that our approach decreases significantly the execution time and scales the subgraph discovery process to large graph databases. In the second axis, we address the multi-criteria optimization problem of tuning thresholds related to distributed frequent subgraph mining in cloud computing environments while optimizing the global monetary cost of storing and querying data in the cloud. We define cost models for managing and mining data with a large scale subgraph mining framework over a cloud architecture. We present an experimental validation of the proposed cost models in the case of distributed subgraph mining in the cloud.

Page generated in 0.0639 seconds