• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 8
  • 4
  • Tagged with
  • 36
  • 12
  • 12
  • 10
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques / Scheduling checkpoint/restart of high performance computing on dynamic environments

Yenke, Blaise Omer 07 January 2011 (has links)
Les avancées technologiques ont conduit les grandes organisations telles que les entreprises,les universités et les instituts de recherche à se doter d'intranets constitués de plusieurs serveurs etd'un grand nombre de postes de travail. Cependant dans certaines de ces organisations, les postes detravail sont très peu utilisés pendant la nuit, les week-ends et les périodes de congés, libérant ainsiune grande puissance de calcul disponible et inutilisée.Dans cette thèse, nous étudions l'exploitation de ces temps de jachère afin d'exécuter desapplications de calcul haute performance. A cet effet, nous supposons que les postes acquis sontrebootés et intégrés à des grappes virtuelles constituées dynamiquement. Toutefois, ces temps dejachère ne permettent pas toujours d'exécuter les applications jusqu'à leur terme. Les mécanismes desauvegarde/reprise (checkpointing) sont alors utilisés pour sauvegarder, dans un certain délai, lecontexte d'exécution des applications en vue d'une éventuelle reprise. Il convient de noter que lasauvegarde de tous les processus dans les délais impartis n'est pas toujours possible. Nousproposons un modèle d'ordonnancement des sauvegardes en parallèle, qui tient compte descontraintes temporelles imposées et des contraintes liées aux bandes passantes (réseau et disque),pour maximiser les temps de calcul déjà effectués pour les applications candidates à la sauvegarde. / The technological advances has led major organizations such as enterprises, universities andresearch institutes to acquire intranets consisting of several servers and many workstations.However, in some of these organizations, the resources are rarely used at nights, weekends and onholidays, thus releasing a large computing power available and unused.This thesis discusses the exploitation of the idle period of workstaions in order to run HPCapplications. The workstations retained are restarted and integrated in dynamically formed clusters.However, the idle periods do not always permit the complete carrying out of the computationsallocated to them. The checkpointing mechanisms are then used to save in a certain period, theexecution context of applications for a possible restart. It is worth nothing that checkpointing all theprocesses in the required period is not always possible. We propose a scheduling model ofcheckpointing in parallel, which takes into account the time constraints imposed and the bandwidthconstraints (network and disk) to maximize the computation time already taken for the applicationswhich are to be checkpointed.
12

Un canevas logiciel pour la construction de systèmes de stockage reconfigurables pour grappes de machines

Lachaize, Renaud 14 September 2005 (has links) (PDF)
Cette thèse s'intéresse aux systèmes de stockage répartis pour grappes de serveurs. Les solutions existantes sont généralement monolithiques et peu (re)configurables. Elles limitent la réutilisation de code, compliquent l'administration et le développement de systèmes robustes et autonomes. Nous proposons un canevas logiciel visant à lever ces contraintes. Un service de stockage est construit à partir d'un assemblage de composants et fournit une représentation explicite des flux de contrôle et de données. L'architecture permet un paramétrage fin des propriétés du système, y compris au niveau des protocoles de communication et des stratégies de transfert des données. L'infrastructure d'exécution offre, de plus, des mécanismes de reconfiguration dynamique du code, des paramètres et de la structure du système. Un prototype, implémenté au niveau bloc, montre qu'une approche modulaire est conciliable avec de bonnes performances et permet de construire des services flexibles et spécialisés.
13

ATHAPASCAN-0 : exploitation de la multiprogrammation légère sur grappes de multiprocesseurs

Carissimi, Alexandre da Silva 25 November 1999 (has links) (PDF)
L'accroissement d'efficacité des réseaux d'interconnexion et la vulgarisation des machines multiprocesseurs permettent la réalisation de machines parallèles à mémoire distribuée de faible coût: les grappes de multiprocesseurs. Elles nécessitent l'exploitation à la fois du parallélisme à grain fin, interne à un multiprocesseur offert par la multiprogrammation légère, et du parallélisme à gros grain entre les différents multiprocesseurs. L'exploitation simultanée de ces deux types de parallélisme exige une méthode de communication entre les processus légers qui ne partagent pas le même espace d'adressage. Le travail de cette thèse porte sur le problème de l'intégration de la multiprogrammation légère et des communications sur grappes de multiprocesseurssymétriques (SMP). Il porte plus précisément sur l'évaluation et le réglage dunoyau exécutif ATHAPASCAN-0 sur ce type d'architecture. ATHAPASCAN-0 est un noyau exécutif,portable, développé au sein du projet APACHE (CNRS-INPG-INRIA-UJF), qui combinela multiprogrammation légère et la communication par échange de messages. La portabilité est assurée par une organisation en couches basée sur les standards POSIX threads et MPI largement répandus. ATHAPASCAN-0 étend le modèle de réseaustatique de processus «lourds» communicants tel que MPI, PVM, etc, à celui d'un réseau dynamique de processus légers communicants. La technique de base est la multiprogrammation légère des communications et des calculs. La progression des communications exige la scrutation de l'état du réseau et l'enchaînement des opérations de transferts. L'efficacité repose sur la minimisation de ces opérations. De plus, l'emploi de multiprocesseurs ajoute des problèmes spécifiques dus à l'apparition d'un parallélisme réel entre calcul et communication. Ces problèmes sont présentés et des solutions sont proposées pour l'environnement ATHAPASCAN-0. Ces solutions sont évaluées sur des grappes de multiprocesseurs.
14

Résolution de systèmes linéaires et non linéaires creux sur grappes de GPUs

Ziane Khodja, Lilia 07 June 2013 (has links) (PDF)
Depuis quelques années, les grappes équipées de processeurs graphiques GPUs sont devenues des outils très attrayants pour le calcul parallèle haute performance. Dans cette thèse, nous avons conçu des algorithmes itératifs parallèles pour la résolution de systèmes linéaires et non linéaires creux de très grandes tailles sur grappes de GPUs. Dans un premier temps, nous nous sommes focalisés sur la résolution de systèmes linéaires creux à l'aide des méthodes itératives CG et GMRES. Les expérimentations ont montré qu'une grappe de GPUs est plus performante que son homologue grappe de CPUs pour la résolution de systèmes linéaires de très grandes tailles. Ensuite, nous avons mis en oeuvre des algorithmes parallèles synchrones et asynchrones des méthodes itératives Richardson et de relaxation par blocs pour la résolution de systèmes non linéaires creux. Nous avons constaté que les meilleurs solutions développées pour les CPUs ne sont pas nécessairement bien adaptées aux GPUs. En effet, les simulations effectuées sur une grappe de GPUs ont montré que les algorithmes Richardson sont largement plus efficaces que ceux de relaxation par blocs. De plus, elles ont aussi montré que la puissance de calcul des GPUs permet de réduire le rapport entre le temps d'exécution et celui de communication, ce qui favorise l'utilisation des algorithmes asynchrones sur des grappes de GPUs. Enfin, nous nous sommes intéressés aux grappes géographiquement distantes pour la résolution de systèmes linéaires creux. Dans ce contexte, nous avons utilisé la méthode de multi-décomposition à deux niveaux avec GMRES parallèle adaptée aux grappes de GPUs. Celle-ci utilise des itérations synchrones pour résoudre localement les sous-systèmes linéaires et des itérations asynchrones pour résoudre la globalité du système linéaire.
15

Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques

Yenke, Blaise 07 January 2011 (has links) (PDF)
Les avancées technologiques ont conduit les grandes organisations telles que les entreprises,les universités et les instituts de recherche à se doter d'intranets constitués de plusieurs serveurs etd'un grand nombre de postes de travail. Cependant dans certaines de ces organisations, les postes detravail sont très peu utilisés pendant la nuit, les week-ends et les périodes de congés, libérant ainsiune grande puissance de calcul disponible et inutilisée.Dans cette thèse, nous étudions l'exploitation de ces temps de jachère afin d'exécuter desapplications de calcul haute performance. A cet effet, nous supposons que les postes acquis sontrebootés et intégrés à des grappes virtuelles constituées dynamiquement. Toutefois, ces temps dejachère ne permettent pas toujours d'exécuter les applications jusqu'à leur terme. Les mécanismes desauvegarde/reprise (checkpointing) sont alors utilisés pour sauvegarder, dans un certain délai, lecontexte d'exécution des applications en vue d'une éventuelle reprise. Il convient de noter que lasauvegarde de tous les processus dans les délais impartis n'est pas toujours possible. Nousproposons un modèle d'ordonnancement des sauvegardes en parallèle, qui tient compte descontraintes temporelles imposées et des contraintes liées aux bandes passantes (réseau et disque),pour maximiser les temps de calcul déjà effectués pour les applications candidates à la sauvegarde.
16

Workload Traces Analysis and Replay in Large Scale Distributed Systems / Analyse de rejeu de traces de charge dans les grands systèmes de calcul distribués

Emeras, Joseph 01 October 2013 (has links)
L'auteur n'a pas fourni de résumé en français / High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation.The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service.The need for workload comprehension has lead to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also lead to the construction of several models, based on the statistical analysis of the different workloads from the collection.Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns.In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users.Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works.Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems.However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and understanding of the performance of the resources and jobs management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experimentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context.Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.
17

Modèle de mélange gaussien à effets superposés pour l’identification de sous-types de schizophrénie

Nefkha-Bahri, Samy 03 1900 (has links)
Ce travail s’inscrit dans l’effort de recherche ayant pour but d’identifier des sous-types de schizophrénie à travers des données de connectivité cérébrale tirées de l’imagerie par résonance magnétique fonctionelle. Des techniques de regroupement en grappes, dont l’algorithme Espérance-Maximisation (EM) pour l’estimation des paramètres de modèles de mé- lange gaussien, ont été utilisées sur des données de ce type dans des recherches précédentes. Cette approche capture des effets de processus cérébraux normaux qui sont sans intérêt pour l’identification de sous-types maladifs. Dans le présent travail, les données de la population des individus témoins (non-atteints de la maladie) sont modélisées par un mélange fini de densités gaussiennes. Chaque densité représente un sous-type supposé de fonctionnement cé- rébral normal. Une nouvelle modélisation est proposée pour les données de la population des individus atteints : un mélange de densités gaussiennes où chaque densité a une moyenne correspondant à la somme d’un état normal et d’un état maladif. Il s’agit donc d’un modèle de mélange gaussien dans lequel se superposent des sous-types de fonctionnement cérébral normal et des sous-types de maladie. On présuppose que les processus normaux et maladifs sont additifs et l’objectif est d’isoler et d’estimer les effets maladifs. Un algorithme de type EM spécifiquement conçu pour ce modèle est développé. Nous disposons en outre de données de connectivité cérébrale de 242 individus témoins et 242 patients diagnostiqués schizophrènes. Des résultats de l’utilisation de cet algorithme sur ces données sont rapportés. / This work is part of the research effort to identify subtypes of schizophrenia through brain connectivity data from functional magnetic resonance imaging. Clustering techniques, including the Esperance-Maximization algorithm (EM) for estimating parameters of Gaussian mixture models, have been used on such data in previous research. This approach captures the effects of normal brain processes that are irrelevant to the identification of disease subtypes. In this work, the population data of control (non-disease) individuals are modeled by a finite mixture of Gaussian densities. Each density represents an assumed subtype of normal brain function. A new model is proposed for the population data of affected individuals : a mixture of Gaussian densities where each density has an mean corresponding to the sum of a normal state and a disease state. Therefore, it is a mixture in which subtypes of normal brain function and subtypes of disease are superimposed. It is assumed that normal and unhealthy processes are additive and the goal is to isolate and estimate the unhealthy effects. An EM algorithm specifically designed for this model is developed. Data were obtained from functional magnetic resonance imaging of 242 control individuals and 242 patients diagnosed with schizophrenia. Results obtained using this algorithm on this data set are reported.
18

Conception d'une interface informatique couplée à un code de simulation Monte-Carlo de la radiolyse de l'eau, permettant la visualisation en trois dimensions de la trajectoire d'une particule chargée incidente et de toutes les espèces radiolytiques formées en fonction du temps

Plante, Ianik January 2005 (has links)
La radiobiologie est une science multidisciplinaire qui s'intéresse à l'effet des radiations sur les êtres vivants. Les recherches entreprises dans cette discipline ont permis de montrer que la matière vivante est très radiosensible, et que les conséquences de l'irradiation au niveau de la cellule peuvent être multiples: mutations, mort cellulaire, vieillissement et carcinogenèse. Il est aussi connu que l'effet indirect des diverses espèces réactives créées par la radiolyse de l'eau (tels que les radicaux ·OH) contribue de façon importante aux lésions de l'ADN et d'autres constituants clés de la cellule comme les mitochondries et les membranes. Les êtres vivants étant constitués d'une quantité importante d'eau (70% en poids), il est crucial de bien comprendre les phénomènes impliqués dans la radiolyse de l'eau. Notre équipe de recherche a développé et raffiné durant les 15 dernières années plusieurs codes qui simulent les trois étapes de la radiolyse de l'eau et des solutions aqueuses: l'étape physique, l'étape physico-chimique et l'étape de chimie hétérogène. [Résumé abrégé par UMI]
19

Low-linear energy transfer radiolysis of liquid water at elevated temperatures up to 350[degrees]C Monte-Carlo simulations

Sanguanmith, Sunuchakan January 2012 (has links)
A re-examination of our Monte-Carlo modeling of the high-temperature radiolysis of liquid water by low-linear energy transfer (LET~0.3 keV/[micro]m) radiation has been undertaken in an attempt to reconcile our computed g-values (primary yields) of the various radiolytic products (e[superscript -][subscript aq], ¨OH, H¨, H[subscript 2], and H[subscript 2]O[subscript 2]) with recently reevaluated experimental data over the range from 25 up to 350 [degrees]C. The temperature dependence of the rate constant for the self-reaction of the hydrated electron (e[superscript -][subscript aq]) measured under alkaline conditions, and in particular the abrupt drop observed above 150 [degrees]C, was assumed, in contrast to previous study, to be valid also in near-neutral pH water. To best reproduce the currently available temperature-dependent g-values, we found it necessary to introduce a discontinuity in the temperature dependence at 150 [degrees]C of certain parameters that intervene in the physicochemical stage of the radiolysis, including the thermalization distance (r[subscript]th) and the dissociative attachment (DEA) of subexcitation electrons, and the dissociative decay of electronically and vibrationally excited water molecules. With the exception of g(H[subscript 2]) above 200 [degrees]C, all calculated g-values were consistent with the general observation that when the temperature is increased, the yields of free radicals g(e[superscript]-[subscript]aq), g(¨OH), and g(H¨) increase while the molecular yield g(H[subscript 2]O[subscript 2]) decreases.Although H[subscript 2] is a molecular product, g(H[subscript 2]) was observed to continue to increase with temperature for a reason that has been a matter of controversy recently. Our simulations show that the reaction of H¨ atoms with water previously proposed by Swiatla-Wojcik and Buxton can indeed account for the anomalous increase in g(H[subscript 2]) at high temperature if we use for the rate constant of this reaction the value of 10[superscript 4] M[superscript 1] s[superscript -1] at 300 [degrees]C. Finally, as a direct application of the Fricke (ferrous sulfate) dosimeter, we have calculated the spur lifetime ([tau]s) and its temperature dependence. The results show that our calculated [tau]s value is decreasing from 4.2×10[superscript -7] to 5.7×10[superscript -8] s over the temperature range 25-350 [degrees]C.
20

Évaluation de l'implantation d'un Programme de Formation et de Liaison (ProFiL) entre les pharmaciens communautaires et la clinique de pré-dialyse : une étude pilote, contrôlée et randomisée par grappes

Normandeau, Michelle January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.0263 seconds