• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 17
  • 2
  • Tagged with
  • 41
  • 41
  • 23
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Environnements pour l'analyse expérimentale d'applications de calcul haute performance

Perarnau, Swann 01 December 2011 (has links) (PDF)
Les machines du domaine du calcul haute performance (HPC) gagnent régulièrement en com- plexité. De nos jours, chaque nœud de calcul peut être constitué de plusieurs puces ou de plusieurs cœurs se partageant divers caches mémoire de façon hiérarchique. Que se soit pour comprendre les performances ob- tenues par une application sur ces architectures ou pour développer de nouveaux algorithmes et valider leur performance, une phase d'expérimentation est souvent nécessaire. Dans cette thèse, nous nous intéressons à deux formes d'analyse expérimentale : l'exécution sur machines réelles et la simulation d'algorithmes sur des jeux de données aléatoires. Dans un cas comme dans l'autre, le contrôle des paramètres de l'environnement (matériel ou données en entrée) permet une meilleure analyse des performances de l'application étudiée. Ainsi, nous proposons deux méthodes pour contrôler l'utilisation par une application des ressources ma- térielles d'une machine : l'une pour le temps processeur alloué et l'autre pour la quantité de cache mémoire disponible. Ces deux méthodes nous permettent notamment d'étudier les changements de comportement d'une application en fonction de la quantité de ressources allouées. Basées sur une modification du compor- tement du système d'exploitation, nous avons implémenté ces méthodes pour un système Linux et démontré leur utilité dans l'analyse de plusieurs applications parallèles. Du point de vue de la simulation, nous avons étudié le problème de la génération aléatoire de graphes orientés acycliques (DAG) pour la simulation d'algorithmes d'ordonnancement. Bien qu'un grand nombre d'algorithmes de génération existent dans ce domaine, la plupart des publications repose sur des implémen- tations ad-hoc et peu validées de ces derniers. Pour pallier ce problème, nous proposons un environnement de génération comprenant la majorité des méthodes rencontrées dans la littérature. Pour valider cet envi- ronnement, nous avons réalisé de grande campagnes d'analyses à l'aide de Grid'5000, notamment du point de vue des propriétés statistiques connues de certaines méthodes. Nous montrons aussi que la performance d'un algorithme est fortement influencée par la méthode de génération des entrées choisie, au point de ren- contrer des phénomènes d'inversion : un changement d'algorithme de génération inverse le résultat d'une comparaison entre deux ordonnanceurs.
12

Évaluation basée sur l’interopérabilité de la performance des collaborationsdans le processus de conception / Inteopeability-based evaluation of collaboration in the design process

Pirayesh Neghab, Amir 10 November 2014 (has links)
Un processus de conception que ce soit d'un produit ou d'un service est composé d'un grand nombre d'activités reliées par des échanges nombreux de données et d'informations. La qualité de ces échanges, appelés collaborations, nécessite d'être capable d'envoyer et de recevoir des informations et données utiles, compréhensibles et univoques pour les différents concepteurs impliqués. La problématique de ces travaux de thèse se focalise donc sur la définition et l'évaluation de la performance des collaborations, et par extension, du processus de conception dans sa totalité. Cette évaluation de la performance exige la définition de plusieurs éléments clefs tels que : les objets à évaluer, les indicateurs de performance et les variables d'actions. Afin de définir l'objet d'évaluation, ces travaux s'appuient sur une étude de la littérature afin de proposer un méta-modèle de la conception collaborative. La mesure de la performance de ces collaborations est quant à elle basée sur le concept d'interopérabilité. Cette mesure estime ainsi l'interopérabilité technique et sémantique des différentes collaborations élémentaires. Ces travaux se concluent par la proposition d'un cadre méthodologique outillé d'évaluation de la performance des collaborations. Par une approche en deux étapes (modélisation puis évaluation), ce cadre facilite l'identification des collaborations peu performantes et de leurs causes. Ce cadre est illustré et partiellement validé à l'aide d'un exemple académique et d'une étude de cas dans le cadre de la conception. / A design process, whether for a product or for a service, is composed of a large number of activities connected by many data and information exchanges. The quality of these exchanges, called collaborations, requires being able to send and receive data and information which are useful, understandable and unambiguous to the different designers involved. The research question is thus focused on the definition and evaluation of the performance of collaborations, and by extension, of the design process in its entirety. This performance evaluation requires the definition of several key elements such as object(s) to be evaluated, the performance indicator(s) and action variable(s).In order to define the object of evaluation, this research relies on a study of the literature resulting in a meta-model of collaborative process. The measurement of the performance of these collaborations is for its part based on the concept of interoperability. The measurement of the performance of the collaborations is for its part based on the concept of interoperability. Furthermore, this measure estimates the technical and conceptual interoperability of the different elementary collaborations. This work is concluded by proposing a tooled methodological framework for collaborations' performance evaluation. Through a two-step approach (modeling and evaluation), this framework facilitates the identification of inefficient collaborations and their causes. This framework is illustrated and partially validated using an academic example and a case study in design domain.
13

Étude et amélioration de la performance des serveurs de données pour les architectures multi-cœurs

Gaud, Fabien 02 December 2010 (has links) (PDF)
Cette thèse s'intéresse à la performance des serveurs de données sur les architectures multi-cœurs. Nous avons choisi d'étudier ce problème sous deux aspects différents. Premièrement, nous étudions un support d'exécution événementiel. Nous montrons notamment que le mécanisme de vol de tâches, utilisé pour équilibrer la charge entre les cœurs, peut pénaliser la performance d'un serveur Web. Nous proposons donc diverses optimisations pour améliorer les performances de ce mécanisme sur les processeurs multi-cœurs. Deuxièmement, nous étudions la performance du serveur Web Apache, exploitant à la fois un ensemble de threads et de processus, sur une architecture multi-cœurs NUMA. Nous montrons notamment que, sous une charge réaliste, ce serveur Web ne passe pas idéalement à l'échelle. Grâce à une analyse détaillée des coûts, nous déterminons les raisons de ce manque de passage à l'échelle et présentons un ensemble de propositions visant à améliorer la performance de ce serveur sur une architecture NUMA.
14

Synthèse de lois de commande pour les systèmes à commutation avec contraintes de performances / Control Laws Synthesis for Switched Systems with Constraints Performance

Mélin, Julie 27 May 2011 (has links)
Les systèmes à commutations constituent un cas particulier des systèmes dynamiques hybrides. Ils sont composés d'une famille de systèmes et d'une loi de commutation qui détermine quel mode est activé à chaque instant. Ces systèmes représentent une large gamme de systèmes concrets. L'étude de la stabilité de ceux-ci a déjà été longuement abordée. Les travaux de cette thèse portent sur l'analyse de performance des systèmes à commutations linéaires en temps discret et sur la synthèse de différentes lois de commande pour ces systèmes en tenant compte de contraintes de performances. L'analyse de stabilité de ces systèmes a été étendue pour tenir compte de l'aspect performance qui a été modélisée par un critère quadratique. La valeur du critère dépendant des commutations, l'analyse porte sur le coût garanti des performances. Grâce à la résolution d'un problème d'optimisation sous des contraintes sous la forme d'inégalités matricielles linéaires, un majorant du coût garanti est déterminé. Une approche est proposée pour évaluer la qualité du majorant trouvé. Un deuxième point abordé est la conception de contrôleurs qui tiennent compte de l'aspect performance. Des méthodes de synthèse de différents contrôleurs (retour d'état, retour d'état reconstruit par observateur et retour de sortie dynamique) sont proposées dans ce cadre. Enfin, nos résultats ont été appliqués au cas des systèmes contrôlés en réseau. / Switched systems are a specific case of dynamical hybrid systems. They are made up of a family of subsystems and of a switching law which defines the activated subsystem at each instant. These systems depict a wide range of real systems. Stability's study has been intensely studied. This Ph.D. thesis deals with performance analysis for discrete-time switched linear systems and synthesis of different control laws by taking into account performance constraints. Stability's analysis for these systems was spread in order to taking into account performance aspect, modeled by a quadratic criterion. As the value of the criterion depends on commutations, the analysis is done for the guaranteed cost of performances. By solving an optimization problem under constraints in the form of linear matrices inequalities, an upper bound of the guaranteed cost is found. An approach is proposed to certificate the upper bound. An other tackled point is the synthesis of controllers which take into account performance aspect. Methods of synthesis of different controllers (state feedback, state feedback based on observer and dynamic output feedback) are proposed. Last, our results are applied to networked controlled systems
15

Environnements pour l'analyse expérimentale d'applications de calcul haute performance / Environments for the experimental analysis of HPC applications.

Perarnau, Swann 01 December 2011 (has links)
Les machines du domaine du calcul haute performance (HPC) gagnent régulièrement en com- plexité. De nos jours, chaque nœud de calcul peut être constitué de plusieurs puces ou de plusieurs cœurs se partageant divers caches mémoire de façon hiérarchique. Que se soit pour comprendre les performances ob- tenues par une application sur ces architectures ou pour développer de nouveaux algorithmes et valider leur performance, une phase d'expérimentation est souvent nécessaire. Dans cette thèse, nous nous intéressons à deux formes d'analyse expérimentale : l'exécution sur machines réelles et la simulation d'algorithmes sur des jeux de données aléatoires. Dans un cas comme dans l'autre, le contrôle des paramètres de l'environnement (matériel ou données en entrée) permet une meilleure analyse des performances de l'application étudiée. Ainsi, nous proposons deux méthodes pour contrôler l'utilisation par une application des ressources ma- térielles d'une machine : l'une pour le temps processeur alloué et l'autre pour la quantité de cache mémoire disponible. Ces deux méthodes nous permettent notamment d'étudier les changements de comportement d'une application en fonction de la quantité de ressources allouées. Basées sur une modification du compor- tement du système d'exploitation, nous avons implémenté ces méthodes pour un système Linux et démontré leur utilité dans l'analyse de plusieurs applications parallèles. Du point de vue de la simulation, nous avons étudié le problème de la génération aléatoire de graphes orientés acycliques (DAG) pour la simulation d'algorithmes d'ordonnancement. Bien qu'un grand nombre d'algorithmes de génération existent dans ce domaine, la plupart des publications repose sur des implémen- tations ad-hoc et peu validées de ces derniers. Pour pallier ce problème, nous proposons un environnement de génération comprenant la majorité des méthodes rencontrées dans la littérature. Pour valider cet envi- ronnement, nous avons réalisé de grande campagnes d'analyses à l'aide de Grid'5000, notamment du point de vue des propriétés statistiques connues de certaines méthodes. Nous montrons aussi que la performance d'un algorithme est fortement influencée par la méthode de génération des entrées choisie, au point de ren- contrer des phénomènes d'inversion : un changement d'algorithme de génération inverse le résultat d'une comparaison entre deux ordonnanceurs. / High performance computing systems are increasingly complex. Nowadays, each compute node can contain several sockets or several cores and share multiple memory caches in a hierarchical way. To understand an application's performance on such systems or to develop new algorithms and validate their behavior, an experimental study is often required. In this thesis, we consider two types of experimental analysis : execution on real systems and simulation using randomly generated inputs. In both cases, a scientist can improve the quality of its performance analysis by controlling the environment (hardware or input data) used. Therefore, we discuss two methods to control hardware resources allocation inside a system : one for the processing time given to an application, the other for the amount of cache memory available to it. Both methods allow us to study how an application's behavior change according to the amount of resources allocated. Based on modifications of the operating system, we implemented these methods for Linux and demonstrated their use for the analysis of several parallel applications. Regarding simulation, we studied the issue of the random generation of directed acyclic graphs for scheduler simulations. While numerous algorithms can be found for such problem, most papers in this field rely on ad-hoc implementations and provide little validation of their generator. To tackle this issue, we propose a complete environment providing most of the classical generation methods. We validated this environment using big analysis campaigns on Grid'5000, verifying known statistical properties of most algorithms. We also demonstrated that the performance of a scheduler can be impacted by the generation method used, identifying a reversing phenomenon : changing the generating algorithm can reverse the comparison between two schedulers.
16

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.
17

Architecture De Contrôleur Mémoire Configurable et Continuité de Service Pour l'Accès à la Mémoire Externe Dans Les Systèmes Multiprocesseurs Intégrés à Base de Réseaux Sur Puce

Hassan, Khaldon 02 September 2011 (has links) (PDF)
L'évolution de la technologie VLSI permet aux systèmes sur puce (SoCs) d'intégrer de nombreuses fonctions hétérogènes dans une seule puce et demande, en raison de contraintes économiques, une unique mémoire externe partagée (SDRAM). Par conséquent, la conception du système de mémoire principale, et plus particulièrement l'architecture du contrôleur de mémoire, est devenu un facteur très important dans la détermination de la performance globale du système. Le choix d'un contrôleur de mémoire qui répond aux besoins de l'ensemble du système est une question complexe. Cela nécessite l'exploration de l'architecture du contrôleur de mémoire, puis la validation de chaque configuration par simulation. Bien que l'exploration de l'architecture du contrôleur de mémoire soit un facteur clé pour une conception réussite d'un système, l'état de l'art sur les contrôleurs de mémoire ne présente pas des architectures aussi flexibles que nécessaire pour cette tâche. Même si certaines d'entre elles sont configurables, l'exploration est restreinte à des ensembles limités de paramètres tels que la profondeur des tampons, la taille du bus de données, le niveau de la qualité de service et la distribution de la bande passante. Plusieurs classes de trafic coexistent dans les applications réelles, comme le trafic de service au mieux et le trafic de service garanti qui accèdent à la mémoire partagée d'une manière concurrente. En conséquence, la considération de l'interaction entre le système de mémoire et la structur d'interconnexion est devenue vitale dans les SoCs actuels. Beaucoup de réseaux sur puce (NoCs) fournissent des services aux classes de trafic pour répondre aux exigences des applications. Cependant, très peu d'études considèrent l'accès à la SDRAM avec une approche système, et prennent en compte la spécificité de l'accès à la SDRAM dans les systèmes sur puce à base de réseaux intégrés. Cette thèse aborde le sujet de l'accès à la mémoire dynamique SDRAM dans les systèmes sur puce à base de réseaux intégrés. Nous introduisons une architecture de contrôleur de mémoire totalement configurable basée sur des blocs fonctionnels configurables, et proposons un modèle de simulation associé relativement précis temporellement et à haut niveau d'abstraction. Ceci permet l'exploration du sous-système de mémoire grâce à la facilité de configuration de l'architecture du contrôleur de mémoire. En raison de la discontinuité de services entre le réseau sur puce et le contrôleur de mémoire, nous proposons également dans le cadre de cette thèse un protocole de contrôle de flux de bout en bout pour accéder à la mémoire à travers un contrôleur de mémoire multiports. L'idée, simple sur le principe mais novatrice car jamais proposée à notre connaissance, se base sur l'exploitation des informations sur l'état du contrôleur de mémoire dans le réseau intégré. Les résultats expérimentaux montrent qu'en contrôlant l'injection du trafic de service au mieux dans le réseau intégré, notre protocole augmente les performances du trafic de service garanti en termes de bande passante et de latence, tout en préservant la bande passante moyenne du trafic de service au mieux.
18

Contributions à l'estimation aveugle et semi-aveugle et analyse de performance.

Kammoun, Abla 16 April 2010 (has links) (PDF)
Cette thèse s'articule autour de deux thématiques principales. La première traite de l'analyse de performance dans les contextes des systèmes utilisant les séquences d'apprentissage et des systèmes multi-utilisateurs. En nous basant sur une analyse asymptotique, nous donnons des expressions explicites des taux d'erreur binaire et de la probabilité de coupure et nous montrons leur précision même pour des systèmes de dimensions réduites. La deuxième partie de cette thèse traite des méthodes d'estimation aveugle et semi-aveugle. Nos contributions se situent sur deux plans: algorithmique et théorique. Sur le plan algorithmique, nous proposons de nouvelles approches qui permettent de résoudre certains problèmes des méthodes conventionnelles telque la sensibilité à la surestimation de l'ordre pour les méthodes aveugles et la recherche du paramètre de régularisation pour les méthodes semi-aveugles. Sur le plan théorique, nous apportons la démonstration de la quasi-convexité de l'erreur asymptotique quadratique moyenne des systèmes semi-aveugle basé sur la régularisation. Nous menons aussi une étude théorique qui témoigne de l'efficacité de l'utilisation de la norme lp pour robustifier les méthodes aveugles.
19

Modélisation et analyse des systèmes de stockage fiable de données dans des réseaux pair-à-pair

Monteiro, Julian 16 November 2010 (has links) (PDF)
Les systèmes pair-à-pair à grande échelle ont été proposés comme un moyen fiable d'assurer un stockage de données à faible coût. Pour assurer la pérennité des données sur une période très longue, ces systèmes codent les données des utilisateurs comme un ensemble de fragments redondants qui sont distribués entre différents pairs du réseau. Un mécanisme de réparation est nécessaire pour faire face au comportement dynamique et non fiable des pairs. Ce mécanisme reconstruit en permanence les fragments de redondance manquants. Le système dépend de nombreux paramètres de configuration qui doivent être bien réglés, comme le facteur de redondance, sa politique de placement et la fréquence de réparation des données. Ces paramètres affectent la quantité de ressources, telles que la bande passante et l'espace de stockage, nécessaires pour obtenir un niveau souhaité de fiabilité, c'est-à-dire, une certaine probabilité de perdre des données. Cette thèse vise à fournir des outils permettant d'analyser et de prédire la performance de systèmes de stockage de données à grande échelle en général. Nous avons utilisé ces outils pour analyser l'impact de différents choix de conception du système sur différentes mesures de performance. Par exemple, la consommation de bande passante, l'espace de stockage et la probabilité de perdre des données, doivent être aussi faibles que possible. Différentes techniques sont étudiées et appliquées. Tout d'abord, nous décrivons un modèle simple par chaîne de Markov qui exploit la dynamique d'un système de stockage sous l'effet de défaillance des pairs et de réparation de données. Puis nous établissons des formules mathématiques closes qui donnent de bonnes approximations du modèle. Ces formules nous permettent de comprendre les interactions entre les paramètres du système. En effet, un mécanisme de réparation paresseux (lazy repair) est étudié et nous décrivons comment régler les paramètres du système pour obtenir une utilisation efficace de la bande passante. Nous confirmons en comparant à des simulations que ce modèle donne des approximations correctes du comportement moyen du système, mais ne parvient pas à capturer ses importantes variations au fil du temps. Nous proposons ensuite un nouveau modèle stochastique basé sur une approximation fluide pour saisir les écarts par rapport au comportement moyen. Ces variations qui sont généralement négligées par les travaux antérieurs, sont très im- portants pour faire une bonne estimation des ressources nécessaires au système. De plus, nous étudions plusieurs autres aspects d'un système de stockage distribué: nous utilisons un modèle de files d'attente pour calculer le temps de réparation pour un système avec bande passante limitée; nous étudions un système de codage hybride: en mixant les codes d'éffacement avec la simple réplication des données; enfin, nous étudions l'impact des différentes façons de distribuer des fragments de données entre les pairs, i.e., les stratégies des placements.
20

Etude de l'efficacité diphasique d'une pompe pour la compression du CO2

Mohamed, El Mifdol 16 March 2012 (has links) (PDF)
L'IFPEN (Institut Français du Pétrole-Énergies Nouvelles) développe, depuis les années 80, un type de pompe polyphasique rotodynamique axiale pour le transport de pétrole brut et de gaz naturel utilisant une seule et même tuyauterie de production. S'agissant maintenant d'une technologie mature et commercialisée par des sociétés licenciées, IFPEN souhaite désormais étendre le domaine d'application de ces pompes polyphasiques dites de type "Poséidon" au conditionnement et au transport du CO2 en vue de son injection dans les aquifères salins profonds ou dans des réservoirs épuisés. Comme toutes les pompes ou les compresseurs, on caractérise le fonctionnement de ces pompes par des courbes qui donnent, en fonction du débit, une élévation de pression et un rendement pour une vitesse de rotation donnée. Dans le cas de pompes diphasiques, on associe généralement un paramètre supplémentaire que l'on appelle "efficacité diphasique". L'IFPEN définit l'efficacité diphasique comme le rapport du gain de pression réel de la pompe et du gain de pression idéal c'est-à-dire l'augmentation de la pression que subirait un fluide considéré comme homogène avec une masse volumique équivalente à celle d'un mélange diphasique connu. Ce paramètre supplémentaire est supposé quantifier la dégradation du gain de pression liée à la présence de gaz à la traversée de la pompe. La littérature montre que la dégradation des performances est liée à une accumulation de la phase dispersée dans une zone bien précise des canaux des rotors. La physique des phénomènes mis en jeu est relativement bien décrite et il est admis que les paramètres essentiels qui interviennent sur les dégradations sont liés à la taille des particules de gaz et à la force de traînée qui s'exerce sur elles. Compte tenu des équilibres des forces qui régissent les écoulements, les évolutions des bulles de gaz sont différentes en machines radiales de celles des machines axiales. Différents travaux portent sur la modélisation de ces écoulements utilisant des simulations numériques 3D surtout dans les machines radiales. Ils visent généralement à vérifier le comportement des bulles dans les canaux entre les aubes. Aucun d'entre eux cependant ne donne une évaluation de la dégradation des performances de la pompe, et même si des tentatives existent, elles ne s'appliquent qu'au point nominal de fonctionnement et pour des très faibles taux de gaz. L'objectif de notre étude est d'apporter un éclairage nouveau sur les évolutions de l'efficacité diphasique d'une pompe diphasique, en particulier en fonction de ses paramètres géométriques globaux, des paramètres physiques des fluides en présence, en particulier du CO2, et des conditions opératoires à l'entrée de la pompe. Pour ce faire, il est nécessaire de bien cerner les mécanismes responsables de la dégradation des performances des pompes poly-phasiques. Nous sommes parti du principe que l'efficacité diphasique traduisait à la fois une hétérogénéité du mélange liquide / gaz et une modification de l'écoulement au voisinage du bord de fuite des étages de la pompe sous l'effet de glissement entre la phase continue et la phase dispersée. L'objectif de nos travaux est d'apporter une contribution à la quantification de ces effets et en particulier ceux qui proviennent des modifications angulaires des écoulements au bord de fuite des aubages des roues de pompes.

Page generated in 0.1044 seconds