• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Prédiction de performances d'applications de calcul distribué exécutées sur une architecture pair-à-pair

Cornea, Bogdan Florin 08 December 2011 (has links) (PDF)
Dans le domaine du calcul de haute performance, les architectures d'exécution sont en continuelle évolution. L'augmentation du nombre de nœuds de calcul, ou le choix d'une topologie réseau plus rapide représentent un investissement important tant en temps qu'en moyen financier. Les méthodes de prédiction de performances permettent de guider ce choix. En parallèle à ce développement, les systèmes HPC pair-à-pair (P2P) se sont également développés ces dernières années. Ce type d'architecture hétérogène permettrait la résolution des problèmes scientifiques pour un coût très faible par rapport au coût d'une architecture dédiée.Ce manuscrit présente une méthode nouvelle de prédiction de performances pour les applications réelles de calcul distribué, exécutées dans des conditions réelles. La prédiction prend en compte l'optimisation du compilateur. Les résultats sont extrapolables et ils sont obtenus pour un ralentissement réduit. Ce travail de recherche est implémenté dans un logiciel nouveau nommé dPerf. dPerf est capable de prédire les performances des applications C, C++ ou Fortran qui communiquent en utilisant les normes MPI ou P2P-SAP et qui s'exécutent sur une architecture cible pair à pair, hétérogène et décentralisée. La précision de cette contribution a été étudiée sur (i) la transformée Laplace, pour l'aspect séquentiel, (ii) le benchmark IS de NAS, pour l'aspect MPI, (iii) et le code de l'obstacle pour l'aspect calcul P2P décentralisé et l'extrapolation du nombre de nœuds.
132

Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation

Carpen-Amarie, Alexandra 15 December 2011 (has links) (PDF)
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour le stockage et la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité, fiabilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données pour le Cloud qui soit à la fois compatible avec les interfaces standard dans le contexte du Cloud et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage de données qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications distribuées à accès intensif aux données, telles que les applications MapReduce, et des applications fortement couplées, telles que les simulations atmosphériques.
133

Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux

Rouet, François-Henry 17 October 2012 (has links) (PDF)
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l'utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d'entrées de l'inverse d'une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d'abord plusieurs schémas de stockage qui permettent de réduire significativement l'espace mémoire utilisé lors de la résolution, dans le cadre d'exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d'accès aux facteurs stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d'opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d'abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les techniques de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d'algorithmes de répartition et d'ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l'utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d'inconnues) et sur des machines massivement parallèles (jusqu'à quelques milliers de coeurs). Elles ont permis d'améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur).
134

Une approche basée sur les modèles pour le développement d'applications de simulation numérique haute-performance

Palyart, Marc 18 December 2012 (has links) (PDF)
Le développement et la maintenance d'applications de simulation numérique haute-performance sont des activités complexes. Cette complexité découle notamment du couplage fort existant entre logiciel et matériel ainsi que du manque d'accessibilité des solutions de programmation actuelles et du mélange des préoccupations qu'elles induisent. Dans cette thèse nous proposons une approche pour le développement d'applications de simulation numérique haute-performance qui repose sur l'ingénierie des modèles. Afin à la fois de réduire les couts et les délais de portage sur de nouvelles architectures matérielles mais également de concentrer les efforts sur des interventions à plus haute valeur ajoutée, cette approche nommée MDE4HPC, définit un langage de modélisation dédié. Ce dernier permet aux numériciens de décrire la résolution de leurs modèles théoriques dans un langage qui d'une part leur est familier et d'autre part est indépendant d'une quelconque architecture matérielle. Les différentes préoccupations logicielles sont séparées grâce à l'utilisation de plusieurs modèles et de plusieurs points de vue sur ces modèles. En fonction des plateformes d'exécution disponibles, ces modèles abstraits sont alors traduits en implémentations exécutables grâce à des transformations de modèles mutualisables entre les divers projets de développement. Afin de valider notre approche nous avons développé un prototype nommé ArchiMDE. Grâce à cet outil nous avons développé plusieurs applications de simulation numérique pour valider les choix de conception réalisés pour le langage de modélisation.
135

Stratégie multiparamétrique pour la simulation d'assemblages de structures stratifiées

Roulet, Vincent 01 December 2011 (has links) (PDF)
Les travaux de thèse s'inscrivent dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing) et portent sur la simulation numérique de problèmes d'assemblages de composants en matériaux composites stratifiés. Ces assemblages sont sources de deux types de non-linéarités. D'une part, l'interface entre les pièce conduit au traitement de non-linéarités fortes (contact, frottement). D'autre part, dans les composants de l'assemblage, le comportement du matériau stratifié est complexe, du fait des nombreux phénomènes de dégradations interagissant entre eux. Ces deux aspects ont une influence forte sur la réponse globale de l'assemblage, ce qui implique la résolution de systèmes de très grandes tailles, nécessitant généralement l'utilisation de moyens de calcul parallèles.Le couplage entre ces deux problématiques nécessite donc l'utilisation d'algorithmes de calcul parallèle dédiés et robustes, à même de traiter de nombreuses non-linéarités très fortes. Pour cela, la méthode LATIN (pour LArge Time INcrement) présente de nombreux avantages, déjà mis en évidence dans le cas de calcul d'assemblages de pièces élastiques lors de travaux précédents. Le but de ces travaux est donc d'élargir le cadre de la méthode au cas des pièces au comportement endommageable et anélastique.Un dernier aspect, qui sera abordé au sein de ces travaux, traite des fortes variabilités des coefficients intervenant dans les lois non-linéaires. Par conséquent, il est nécessaire de pouvoir traiter un très grand nombre de problèmes affectés de valeurs de coefficients différents. Pour cela, la stratégie multiparamétrique, intimement liée à la méthode LATIN, doit être étendue au cas de comportements matériau non-linéaires. Elle sera alors appliquée au travers de plusieurs paramètres variables : coefficients de frottement, précharges des éléments de fixation, seuil d'endommagement des matériaux...
136

Modulation du cytochrome P450 dans un modèle murin d'insuffisance rénale chronique

Boisvert, Caroline 04 1900 (has links)
Introduction : Les modèles murins sont grandement utilisés dans l’étude des maladies rénales et des pathologies associées. La concentration de la créatinine sérique est un bon indicateur de la filtration glomérulaire et en présence d’insuffisance rénale chronique (IRC), les concentrations de créatinine sérique (et la clairance) reflètent la sévérité de l’IRC. De plus, il a été démontré que l’IRC modifie le métabolisme des médicaments en diminuant l’activité et l’expression des enzymes hépatiques du cytochrome P450 (CYP450). Afin d’étudier la modulation du P450 par l’IRC avec un modèle murin et de confirmer nos résultats chez le rat, nous devons 1) développer un modèle d’IRC chez la souris, 2) mettre au point une technique de dosage des marqueurs de l’IRC et, 3) évaluer l’expression protéique du CYP450 en présence IRC. Matériel et Méthode : Trois modèles chirurgicaux d’IRC chez la souris ont été développés. Une méthode du dosage de la créatinine par chromatographie liquide à haute performance (CLHP) a été mise au point chez la souris et l’expression protéique du P450 a été mesurée par immunobuvardage de type Western. Résultats : Plusieurs paramètres de CLHP comme le pH, la concentration et le débit de la phase mobile modifient le pic d’élution et le temps de rétention de la créatinine. Concernant le modèle expérimental, on observe une perte de poids et une augmentation de la concentration plasmatique de la créatinine chez les souris avec une IRC. De plus, l’expression protéique de plusieurs isoformes du cytochrome P450 est modulée par l’IRC. Nous observons une diminution du CYP 2D de 42% (p < 0,01), du CYP 3A11 de 60% et du CYP 1A de 37% (p <0,01) par rapport aux souris témoins. On ne dénote aucun changement significatif au niveau de l’isoforme 2E1. Conclusion : Il est possible d’induire une insuffisance rénale chronique chez la souris suite à une néphrectomie. La technique de dosage de la créatinine par CLHP est précise et exacte et permet de caractériser la sévérité de l’IRC chez la souris. L’expression protéique du CYP450 est régulée à la baisse dans le foie des souris atteintes d’IRC. / Background: Mice models are widely used in renal studies. Seric creatinine concentration is used to evaluate glomerular filtration rate and is a good marker of chronic renal failure (CRF). It has been shown that CRF diminishes drug metabolism in the rat because of a downregulation of hepatic cytochrome P450 (CYP450) isoforms. To study CYP450 regulation in the mouse model, we needed to 1) develop a model of CRF in the mouse, 2) define a method of dosage of CRF markers, and 3) evaluate CYP450 protein expression in the liver of mice with CRF. Methods: Models of CRF were tested and sub-total nephrectomy was selected because of the efficacy and reproducibility to induce CRF. A high pressure liquid chromatography (HPLC) method for the dosage of creatinine in mice sera was developed. Liver protein expression of CYP1A1, CYP3A11, CYP2D and CYP2E1 was assessed by Western Blot analysis. Results: HPLC parameters such as pH, mobile phase concentration and flow rate modified the elution profile. Weight loss and high seric creatinine concentrations are seen in mice with CRF. Furthermore, protein expression of CYP1A, CYP3A11 and CYP2D was decreased in liver microsomes of mice with CRF by 37%, 60% and 42%, respectively (p<0.01) compared to sham-operated mice. We found no significant difference in the expression of CYP2E1. Conclusions: CRF models are reproducible in the mouse. The HPLC method for creatinine determination is precise and accurate, and can assess the severity of CRF. Hepatic protein expression of CYP450 is modulated in presence of CRF as in the rat.
137

Développement d'une technique optique ayant pour but l'analyse de procédés en ligne de comprimés pharmaceutiques

Cournoyer, Antoine January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
138

Développement d'approches protéomiques pour l'étude des interactions tique / Borrelia / peau

Boeuf, Amandine 13 May 2013 (has links) (PDF)
La maladie de Lyme, ou borréliose de Lyme, est une infection bactérienne causée par le spirochète Borrelia burgdorferi sensu lato et transmise à l'hôte (homme, animal) par piqûre de tique du genre Ixodes. Cette maladie, caractérisée par un polymorphisme clinique important, est la maladie à transmission vectorielle la plus répandue dans l'hémisphère nord. Un traitement par antibiotiques permet une guérison rapide, mais si la maladie est diagnostiquée tardivement, certains symptômes persistent. Actuellement, aucun vaccin n'est commercialisé pour l'homme. Dans ce contexte, nous avons développé des approches protéomiques afin d'apporter de nouveaux éléments de compréhension du mécanisme d'interactions de la triade tique / bactérie / hôte. Ces travaux, visant particulièrement le développement de nouvelles stratégies vaccinales et diagnostiques, sont articulés autour de trois parties : - L'identification, suite à de nombreuses optimisations, d'une méthode d'analyse HPLC-UV et nanoLC-MS/MS, de protéines présentes dans des extraits de glandes salivaires de tiques et possédant une activité sur la réponse immunitaire innée cutanée. Ces développements ont mis en évidence une liste restreinte de protéines potentiellement bioactives. - La mise au point, sur un modèle murin, d'une méthode de détection d'une protéine de Borrelia burgdorferi, OspC, dans des biopsies cutanées par spectrométrie de masse ciblée LC-SRM. Cette étude a ouvert des perspectives quant au développement de nouveaux outils diagnostiques. - L'évaluation de la faisabilité de la détection de Borrelia burgdorferi directement à la surface de la peau par imagerie par spectrométrie de masse MALDI-MSI.
139

Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband

Vienne, Jérôme 01 July 2010 (has links) (PDF)
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro.
140

Méthodologie de conception pour la virtualisation et le déploiement d'applications parallèles sur plateforme reconfigurable matériellement

Foucher, Clément 24 October 2012 (has links) (PDF)
Les applications auto-adaptatives, dont le comportement évolue en fonction de l'environnement, sont un élément clé des systèmes de demain. L'utilisation de matériel reconfigurable, combiné à la parallélisation des unités de calcul, permettent d'envisager de nouveaux niveaux de performances pour ces mêmes applications. L'objectif de cette thèse est de mettre en place un ensemble d'outils permettant la description et le déploiement d'applications parallèles auto-adaptatives. Nous proposons à la fois un modèle d'application parallèle et une architecture de plateforme reconfigurable destinée au déploiement des applications conçues en utilisant ce modèle. Notre modèle d'applications sépare le contrôle du calcul en isolant ce dernier en différents noyaux virtuels. Associée à une représentation du contrôle indépendante de la plateforme, la structure de l'application est donc totalement portable. Indépendamment de celle-ci, les noyaux de calcul peuvent être distribués selon plusieurs implémentations, selon la plateforme, mais également pour proposer différents niveaux de performances. Une couche de virtualisation permet de faire le lien entre la partie contrôle et les noyaux, en traduisant les ordres génériques en actions adaptées à l'implémentation. Concernant la plateforme, nous proposons une architecture permettant l'intégration de ressources de calcul logicielles et matérielles, pouvant être implémentées tant statiquement qu'en utilisant du matériel reconfigurable. Cette architecture parallèle, inspirée du modèle des supercalculateurs, doit permettre d'utiliser tout type d'unités d'exécution et de matériel reconfigurable comme base matérielle pour la plateforme.

Page generated in 0.0547 seconds