• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Improving memory consumption and performance scalability of HPC applications with multi-threaded network communications / Amélioration de la consommation mémoire et de l'extensibilité des performances des applications HPC par le multi-threading des communications réseaux

Didelot, Sylvain 12 June 2014 (has links)
La tendance en HPC est à l'accroissement du nombre de coeurs par noeud de calcul pour une quantité totale de mémoire par noeud constante. A large échelle, l'un des principaux défis pour les applications parallèles est de garder une faible consommation mémoire. Cette thèse présente une couche de communication multi-threadée sur Infiniband, laquelle fournie de bonnes performances et une faible consommation mémoire. Nous ciblons les applications scientifiques parallélisées grâce à la bibliothèque MPI ou bien combinées avec un modèle de programmation en mémoire partagée. En partant du constat que le nombre de connexions réseau et de buffers de communication est critique pour la mise à l'échelle des bibliothèques MPI, la première contribution propose trois approches afin de contrôler leur utilisation. Nous présentons une topologie virtuelle extensible et entièrement connectée pour réseaux rapides orientés connexion. Dans un contexte agrégeant plusieurs cartes permettant d'ajuster dynamiquement la configuration des buffers réseau utilisant la technologie RDMA. La seconde contribution propose une optimisation qui renforce le potentiel d'asynchronisme des applications MPI, laquelle montre une accélération de deux des communications. La troisième contribution évalue les performances de plusieurs bibliothèques MPI exécutant une application de modélisation sismique en contexte hybride. Les expériences sur des noeuds de calcul jusqu'à 128 coeurs montrent une économie de 17 % sur la mémoire. De plus, notre couche de communication multi-threadée réduit le temps d'exécution dans le cas où plusieurs threads OpenMP participent simultanément aux communications MPI. / A recent trend in high performance computing shows a rising number of cores per compute node, while the total amount of memory per compute node remains constant. To scale parallel applications on such large machines, one of the major challenges is to keep a low memory consumption. This thesis develops a multi-threaded communication layer over Infiniband which provides both good performance of communications and a low memory consumption. We target scientific applications parallelized using the MPI standard in pure mode or combined with a shared memory programming model. Starting with the observation that network endpoints and communication buffers are critical for the scalability of MPI runtimes, the first contribution proposes three approaches to control their usage. We introduce a scalable and fully-connected virtual topology for connection-oriented high-speed networks. In the context of multirail configurations, we then detail a runtime technique which reduces the number of network connections. We finally present a protocol for dynamically resizing network buffers over the RDMA technology. The second contribution proposes a runtime optimization to enforce the overlap potential of MPI communications, showing a 2x improvement factor on communications. The third contribution evaluates the performance of several MPI runtimes running a seismic modeling application in a hybrid context. On large compute nodes up to 128 cores, the introduction of OpenMP in the MPI application saves up to 17 % of memory. Moreover, we show a performance improvement with our multi-threaded communication layer where the OpenMP threads concurrently participate to the MPI communications
52

Placement d'applications parallèles en fonction de l'affinité et de la topologie / Placement of parallel applications according to the topology and the affinity

Tessier, Francois 26 January 2015 (has links)
La simulation numérique est un des piliers des Sciences et de l’industrie. La simulationmétéorologique, la cosmologie ou encore la modélisation du coeur humain sont autantde domaines dont les besoins en puissance de calcul sont sans cesse croissants. Dès lors,comment passer ces applications à l’échelle ? La parallélisation et les supercalculateurs massivementparallèles sont les seuls moyens d’y parvenir. Néanmoins, il y a un prix à payercompte tenu des topologies matérielles de plus en plus complexes, tant en terme de réseauque de hiérarchie mémoire. La question de la localité des données devient ainsi centrale :comment réduire la distance entre une entité logicielle et les données auxquelles elle doitaccéder ? Le placement d’applications est un des leviers permettant de traiter ce problème.Dans cette thèse, nous présentons l’algorithme de placement TreeMatch et ses applicationsdans le cadre du placement statique, c’est-à-dire au lancement de l’application, et duplacement dynamique. Pour cette seconde approche, nous proposons la prise en comptede la localité des données dans le cadre d’un algorithme d’équilibrage de charge. Les différentesapproches abordées sont validées par des expériences réalisées tant sur des codesd’évaluation de performances que sur des applications réelles. / Computer simulation is one of the pillars of Sciences and industry. Climate simulation,cosmology, or heart modeling are all areas in which computing power needs are constantlygrowing. Thus, how to scale these applications ? Parallelization and massively parallel supercomputersare the only ways to do achieve. Nevertheless, there is a price to pay consideringthe hardware topologies incessantly complex, both in terms of network and memoryhierarchy. The issue of data locality becomes central : how to reduce the distance betweena processing entity and data to which it needs to access ? Application placement is one ofthe levers to address this problem. In this thesis, we present the TreeMatch algorithmand its application for static mapping, that is to say at the lauchtime of the application,and the dynamic placement. For this second approach, we propose the awareness of datalocality within a load balancing algorithm. The different approaches discussed are validatedby experiments both on benchmarking codes and on real applications.
53

Numerical simulations of the shock wave-boundary layer interactions / Simulations numériques de l’interaction onde de choc couche limite

Ben Hassan Saïdi, Ismaïl 04 November 2019 (has links)
Les situations dans lesquelles une onde de choc interagit avec une couche limite sont nombreuses dans les industries aéronautiques et spatiales. Sous certaines conditions (nombre de Mach élevé, grand angle de choc…), ces interactions entrainent un décollement de la couche limite. Des études antérieures ont montré que la zone de recirculation et le choc réfléchi sont tous deux soumis à un mouvement d'oscillation longitudinale à basse fréquence connu sous le nom d’instabilité de l’interaction onde de choc / couche limite (IOCCL). Ce phénomène appelé soumet les structures à des chargement oscillants à basse fréquence qui peuvent endommager les structures.L’objectif du travail de thèse est de réaliser des simulations instationnaires de l’IOCCL afin de contribuer à une meilleure compréhension de l’instabilité de l’IOCCL et des mécanismes physiques sous-jacents.Pour effectuer cette étude, une approche numérique originale est utilisée. Un schéma « One step » volume fini qui couple l’espace et le temps, repose sur une discrétisation des flux convectifs par le schéma OSMP développé jusqu’à l’ordre 7 en temps et en espace. Les flux visqueux sont discrétisés en utilisant un schéma aux différences finies centré standard. Une contrainte de préservation de la monotonie (MP) est utilisée pour la capture de choc. La validation de cette approche démontre sa capacité à calculer les écoulements turbulents et la grande efficacité de la procédure MP pour capturer les ondes de choc sans dégrader la solution pour un surcoût négligeable. Il est également montré que l’ordre le plus élevé du schéma OSMP testé représente le meilleur compromis précision / temps de calcul. De plus un ordre de discrétisation des flux visqueux supérieur à 2 semble avoir une influence négligeable sur la solution pour les nombres de Reynolds relativement élevés considérés.En simulant un cas d’IOCCL 3D avec une couche limite incidente laminaire, l’influence des structures turbulentes de la couche limite sur l’instabilité de l’IOCCL est supprimée. Dans ce cas, l’unique cause d’IOCCL suspectée est liée à la dynamique de la zone de recirculation. Les résultats montrent que seul le choc de rattachement oscille aux fréquences caractéristiques de la respiration basse fréquence du bulbe de recirculation. Le point de séparation ainsi que le choc réfléchi ont une position fixe. Cela montre que dans cette configuration, l’instabilité de l’IOCCL n’a pas été reproduite.Afin de reproduire l’instabilité de l’IOCCL, la simulation de l’interaction entre une onde de choc et une couche limite turbulente est réalisée. Une méthode de turbulence synthétique (Synthetic Eddy Method - SEM) est développée et utilisée à l’entrée du domaine de calcul pour initier une couche limite turbulente à moindre coût. L’analyse des résultats est effectuée en utilisant notamment la méthode snapshot-POD (Proper Orthogonal Decomposition). Pour cette simulation, l’instabilité de l’IOCCL a été reproduite. Les résultats suggèrent que la dynamique du bulbe de recirculation est dominée par une respiration à moyenne fréquence. Ces cycles successifs de remplissage / vidange de la zone séparée sont irréguliers dans le temps avec une taille maximale du bulbe de recirculation variant d’un cycle à l’autre. Ce comportement du bulbe de recirculation traduit une modulation basse fréquence des amplitudes des oscillations des points de séparation et de recollement et donc une respiration basse fréquence de la zone séparée. Ces résultats suggèrent que l’instabilité de l’IOCCL est liée à cette dynamique basse fréquence du bulbe de recirculation, les oscillations du pied du choc réfléchi étant en phase avec le point de séparation. / Situations where an incident shock wave impinges upon a boundary layer are common in the aeronautical and spatial industries. Under certain circumstances (High Mach number, large shock angle...), the interaction between an incident shock wave and a boundary layer may create an unsteady separation bubble. This bubble, as well as the subsequent reflected shock wave, are known to oscillate in a low-frequency streamwise motion. This phenomenon, called the unsteadiness of the shock wave boundary layer interaction (SWBLI), subjects structures to oscillating loads that can lead to damages for the solid structure integrity.The aim of the present work is the unsteady numerical simulation of (SWBLI) in order to contribute to a better understanding of the SWBLI unsteadiness and the physical mechanism causing these low frequency oscillations of the interaction zone.To perform this study, an original numerical approach is used. The one step Finite Volume approach relies on the discretization of the convective fluxes of the Navier Stokes equations using the OSMP scheme developed up to the 7-th order both in space and time, the viscous fluxes being discretized using a standard centered Finite-Difference scheme. A Monotonicity-Preserving (MP) constraint is employed as a shock capturing procedure. The validation of this approach demonstrates the correct accuracy of the OSMP scheme to predict turbulent features and the great efficiency of the MP procedure to capture discontinuities without spoiling the solution and with an almost negligible additional cost. It is also shown that the use of the highest order tested of the OSMP scheme is relevant in term of simulation time and accuracy compromise. Moreover, an order of accuracy higher than 2-nd order for approximating the diffusive fluxes seems to have a negligible influence on the solution for such relatively high Reynolds numbers.By simulating the 3D unsteady interaction between a laminar boundary layer and an incident shock wave, we suppress the suspected influence of the large turbulent structures of the boundary layer on the SWBLI unsteadiness, the only remaining suspected cause of unsteadiness being the dynamics of the separation bubble. Results show that only the reattachment point oscillates at low frequencies characteristic of the breathing of the separation bubble. The separation point of the recirculation bubble and the foot of the reflected shock wave have a fixed location along the flat plate with respect to time. It shows that, in this configuration, the SWBLI unsteadiness is not observed.In order to reproduce and analyse the SWBLI unsteadiness, the simulation of a shock wave turbulent boundary layer interaction (SWTBLI) is performed. A Synthetic Eddy Method (SEM), adapted to compressible flows, has been developed and used at the inlet of the simulation domain for initiating the turbulent boundary layer without prohibitive additional computational costs. Analyses of the results are performed using, among others, the snapshot Proper Orthogonal Decomposition (POD) technique. For this simulation, the SWBLI unsteadiness has been observed. Results suggest that the dominant flapping mode of the recirculation bubble occurs at medium frequency. These cycles of successive enlargement and shrinkage of the separated zone are shown to be irregular in time, the maximum size of the recirculation bubble being submitted to discrepancies between successive cycles. This behaviour of the separation bubble is responsible for a low frequency temporal modulation of the amplitude of the separation and reattachment point motions and thus for the low frequency breathing of the separation bubble. These results tend to suggest that the SWBLI unsteadiness is related to this low frequency dynamics of the recirculation bubble; the oscillations of the reflected shocks foot being in phase with the motion of the separation point.
54

Modèles de performance pour l'adaptation des méthodes numériques aux architectures multi-coeurs vectorielles. Application aux schémas Lagrange-Projection en hydrodynamique compressible / Improving numerical methods on recent multi-core processors. Application to Lagrange-Plus-Remap hydrodynamics solver.

Gasc, Thibault 06 December 2016 (has links)
Ces travaux se concentrent sur la résolution de problèmes de mécanique des fluides compressibles. De nombreuses méthodes numériques ont depuis plusieurs décennies été développées pour traiter ce type de problèmes. Cependant, l'évolution et la complexité des architectures informatiques nous poussent à actualiser et repenser ces méthodes numériques afin d'utiliser efficacement les calculateurs massivement parallèles. Au moyen de modèles de performance, nous analysons une méthode numérique de référence de type Lagrange-Projection afin de comprendre son comportement sur les supercalculateurs récents et d'en optimiser l'implémentation pour ces architectures. Grâce au bilan de cet analyse, nous proposons une formulation alternative de la phase de projection ainsi qu'une nouvelle méthode numérique plus performante baptisée Lagrange-Flux. Les développements de cette méthode ont permis d'obtenir des résultats d'une précision comparable à la méthode de référence. / This works are dedicated to hydrodynamics. For decades, numerous numerical methods has been developed to deal with this type of problems. However, both the evolution and the complexity of computing make us rethink or redesign our numerical solver in order to use efficiently massively parallel computers. Using performance modeling, we perform an analysis of a reference Lagrange-Remap solver in order to deeply understand its behavior on current supercomputer and to optimize its implementation. Thanks to the conclusions of this analysis, we derive a new numerical solver which by design has a better performance. We call it the Lagrange-Flux solver. The accuracy obtained with this solver is similar to the reference one. The derivation of this method also leads to rethink the Remap step.
55

Synthèse de nouveaux matériaux polyamides hautes performances / Synthesis of new high performance polyamides materials

Goncalves, Emilie 01 February 2011 (has links)
Depuis quelques années, une nouvelle gamme de matériaux polyamides hautes performances voit le jour pour des secteurs clés comme l’automobile. Par exemple, ces nouveaux matériaux sont destinés grâce à leur faible densité à alléger les pièces et donc à réduire la consommation de carburant. Les propriétés recherchées sont avant tout une grande stabilité dimensionnelle, une résistance aux hautes températures et une mise en forme facile. L’objectif est la synthèse de ces copolyamides obtenus à partir d’une diamine aliphatique, d’un amino-acide d’origine renouvelable et d’acide téréphtalique. Une augmentation du taux de 6.T au sein du système 11/6.T entraîne alors une augmentation des caractéristiques thermiques mais une perte des propriétés mécaniques. Pour pallier cela, l’objectif suivant est l’amélioration de la ductilité du copolymère en abaissant la température de transition vitreuse mais en gardant des propriétés thermiques élevées. L’intérêt s’est porté sur l’ajout de comonomères ramifiés au sein du système étudié pour agir par plastification interne. Ainsi, l’ajout de comonomères au sein du système entraîne une amélioration des propriétés mécaniques avec une légère baisse du module de traction et une augmentation de l’allongement à la rupture. De plus, il a été mis en évidence une diminution de la reprise en eau lors de l’augmentation du taux molaire de comonomères au sein du système. En conclusion, l’introduction des comonomères permet d’obtenir des nouveaux polyphtalamides avec des propriétés thermiques élevées et des propriétés mécaniques et de reprise en eau améliorées par effet de plastification interne. / In recent years, a new class of crystalline polyamides has been commercialized. These materials known as polyphthalamides contain aromatic groups in the polymer backbone. The aim of the project is to obtain polyphthalamides from raw materials of renewable origin. So, in addition to the aromatic group(s), polyphthalamides are synthesized from an aliphatic diamine and a long-chain monomer of renewable origin. The objectives are to provide novel semi-crystalline, melt processible, partially aromatic copolyamides with high melting point, high glass transition temperatures, low moisture absorption and high dimensional stability. In this study, polyphthalamides with a variable amount of 11 (derived from condensation of 11-amino undecanoic acid) and 6,T units (derived from condensation of hexamethylene diamine and terephthalic acid) are synthetized and it is tried to assess, using thermal analysis, the effect of 6,T units content on the melting point (Tm) and glass transition temperature (Tg) of the resultant copolyamides. As the 6,T unit content is increased, crystalline copolyamides are obtained having a high melting point and a high glass transition temperature. Characterization of molar mass is also performed to check the progress of the synthesis. This work points out that the addition of 6,T units to linear polyamides increases thermal properties. Another possibility can be the addition of various other branched monomers to evaluate their influence on mechanical and thermal properties. The aim is to keep high thermal properties with improving the ductibility of copolyamides. These branched comonomers will act as intern plasticizers. The increase of the comonomers amount in copolymers drives to an improvement of mechanical properties and a decrease of water absorption.
56

Méthode de décomposition de domaine et conditions aux limites artificielles en mécanique des fluides: méthode Optimisée d'Orde 2.

Japhet, Caroline 03 July 1998 (has links) (PDF)
Ce travail a pour objet le développement et l'étude d'une méthode de décomposition de domaine, la méthode Optimisée d'Ordre 2 (OO2), pour la résolution de l'équation de convection-diffusion. Son atout principal est de permettre d'utiliser un découpage quelconque du domaine, sans savoir à l'avance où sont situés les phénomènes physiques tels que les couches limites ou les zones de recirculation. La méthode OO2 est une méthode de décomposition de domaine sans recouvrement, itérative, parallélisable. Le domaine de calcul est divisé en sous-domaines, et on résout le problème de départ dans chaque sous-domaine, avec des conditions de raccord spécifiques sur les interfaces des sous-domaines. Ce sont des conditions différentielles d'ordre 1 dans la direction normale et d'ordre 2 dans la direction tangente à l'interface qui approchent, par une procédure d'optimisation, les Conditions aux Limites Artificielles (CLA). L'utilisation des CLA en décomposition de domaine permet de définir des algorithmes stables. Une reformulation de la méthode de Schwarz conduit à un problème d'interface. Celui-ci est résolu par une méthode itérative de type Krylov (BICG-STAB, GMRES, GCR). La méthode est appliquée à un schéma aux différences finies décentré, puis à un schéma volumes finis. Un préconditionneur ``basses fréquences'' est ensuite introduit et étudié, dans le but d'avoir une convergence indépendante du nombre de sous-domaines. Ce préconditionneur est une extension aux problèmes non-symétriques d'un préconditionneur utilisé pour des problèmes symétriques. Enfin, l'utilisation de conditions différentielles d'ordre 2 le long de l'interface nécessite d'ajouter des conditions de raccord aux points de croisement des sous-domaines. Une étude est menée a ce sujet, qui permet de montrer que les problèmes dans chaque sous-domaine sont bien posés.
57

Une approche dynamique pour l'optimisation des communications concurrentes sur réseaux hautes performance

Brunet, Elisabeth 08 December 2008 (has links)
Cette thèse cherche à optimiser les communications des applications de calcul intensif s'exécutant sur des grappes de PC. En raison de l'usage massif de processeurs multicoeurs, il est désormais impératif de gérer un grand nombre de flux de communication concurrents. Nous avons mis en évidence et analysé les performances décevantes des solutions actuelles dans un tel contexte. Nous avons ainsi proposé une architecture de communication centrée sur l'arbitrage de l'accès aux matériels. Son originalité réside dans la dissociation de l'activité de l'application de celle des cartes réseaux. Notre modèle exploite l'intervalle de temps introduit entre le dépot des requêtes de communication et la disponibilité des cartes réseaux pour appliquer des optimisations de manière opportuniste. NewMadeleine implémente ce concept et se révèle capable d'exploiter les réseaux les plus performants du moment. Des tests synthétiques et portages d'implémentations caractéristiques de MPI ont permis de valider l'architecture proposée. / The aim of this thesis is to optimize the communications of high performance applications, in the context of clusters computing. Given the massive use of multicore architectures, it is now crucial to handle a large number of concurrent communication flows. We highlighted and analyzed the shortcomings of existing solutions. We therefore designed a new way to schedule communication flows by focusing on the activity of the network cards. Its novelty consists in untying the activity of applications from that of the network cards. Our model takes advantage of the delay that exists between the deposal of the communication requests and the moment when the network cards become idle in order to apply some opportunistic optimizations. NewMadeleine implements this model, thus making possible to exploit last generation high speed networks. The approach of NewMadeleine is not only validated by synthetical tests but also by real applications.
58

Un environnement pour le calcul intensif pair à pair / An environment for peer-to-peer high performance computing

Nguyen, The Tung 16 November 2011 (has links)
Le concept de pair à pair (P2P) a connu récemment de grands développements dans les domaines du partage de fichiers, du streaming vidéo et des bases de données distribuées. Le développement du concept de parallélisme dans les architectures de microprocesseurs et les avancées en matière de réseaux à haut débit permettent d'envisager de nouvelles applications telles que le calcul intensif distribué. Cependant, la mise en oeuvre de ce nouveau type d'application sur des réseaux P2P pose de nombreux défis comme l'hétérogénéité des machines, le passage à l'échelle et la robustesse. Par ailleurs, les protocoles de transport existants comme TCP et UDP ne sont pas bien adaptés à ce nouveau type d'application. Ce mémoire de thèse a pour objectif de présenter un environnement décentralisé pour la mise en oeuvre de calculs intensifs sur des réseaux pair à pair. Nous nous intéressons à des applications dans les domaines de la simulation numérique et de l'optimisation qui font appel à des modèles de type parallélisme de tâches et qui sont résolues au moyen d'algorithmes itératifs distribués or parallèles. Contrairement aux solutions existantes, notre environnement permet des communications directes et fréquentes entre les pairs. L'environnement est conçu à partir d'un protocole de communication auto-adaptatif qui peut se reconfigurer en adoptant le mode de communication le plus approprié entre les pairs en fonction de choix algorithmiques relevant de la couche application ou d'éléments de contexte comme la topologie au niveau de la couche réseau. Nous présentons et analysons des résultats expérimentaux obtenus sur diverses plateformes comme GRID'5000 et PlanetLab pour le problème de l'obstacle et des problèmes non linéaires de flots dans les réseaux. / The concept of peer-to-peer (P2P) has known great developments these years in the domains of file sharing, video streaming or distributed databases. Recent advances in microprocessors architecture and networks permit one to consider new applications like distributed high performance computing. However, the implementation of this new type of application on P2P networks gives raise to numerous challenges like heterogeneity, scalability and robustness. In addition, existing transport protocols like TCP and UDP are not well suited to this new type of application. This thesis aims at designing a decentralized and robust environment for the implementation of high performance computing applications on peer-to-peer networks. We are interested in applications in the domains of numerical simulation and optimization that rely on tasks parallel models and that are solved via parallel or distributed iterative algorithms. Unlike existing solutions, our environment allows frequent direct communications between peers. The environment is based on a self adaptive communication protocol that can reconfigure itself dynamically by choosing the most appropriate communication mode between any peers according to decisions concerning algorithmic choice made at the application level or elements of context at transport level, like topology. We present and analyze computational results obtained on several testeds like GRID’5000 and PlanetLab for the obstacle problem and nonlinear network flow problems.
59

Exécution efficace de systèmes Multi-Agents sur GPU / Efficient execution of multi-agent systems on GPU

Laville, Guillaume 27 June 2014 (has links)
Ces dernières années ont consacré l’émergence du parallélisme dans la plupart des branches de l’informatique.Au niveau matériel, tout d’abord, du fait de la stagnation des fréquences de fonctionnement des unités decalcul. Au niveau logiciel, ensuite, avec la popularisation de nombreuses plates-formes d’exécution parallèle.Une forme de parallélisme est également présente dans les systèmes multi-agents, qui facilitent la description desystèmes complexes comme ensemble d’entités en interaction. Si l’adéquation entre ce parallélisme d’exécutionlogiciel et conceptuel semble naturelle, la parallélisation reste une démarche difficile, du fait des nombreusesadaptations devant être effectuées et des dépendances présentes explicitement dans de très nombreux systèmesmulti-agents.Dans cette thèse, nous proposons une solution pour faciliter l’implémentation de ces modèles sur une plateformed’exécution parallèle telle que le GPU. Notre bibliothèque MCMAS vient répondre à cette problématiqueau moyen de deux interfaces de programmation, une couche de bas niveau MCM permettant l’accès direct àOpenCL et un ensemble de plugins utilisables sans connaissances GPU. Nous étudions ensuite l’utilisation decette bibliothèque sur trois systèmes multi-agents existants : le modèle proie-prédateur, le modèle MIOR etle modèle Collemboles. Pour montrer l’intérêt de cette approche, nous présentons une étude de performancede chacun de ces modèles et une analyse des facteurs contribuant à une exécution efficace sur GPU. Nousdressons enfin un bilan du travail et des réflexions présentées dans notre mémoire, avant d’évoquer quelquespistes d’amélioration possibles de notre solution. / These last years have seen the emergence of parallelism in many fields of computer science. This is explainedby the stagnation of the frequency of execution units at the hardware level and by the increasing usage ofparallel platforms at the software level. A form of parallelism is present in multi-agent systems, that facilitatethe description of complex systems as a collection of interacting entities. If the similarity between this softwareand this logical parallelism seems obvious, the parallelization process remains difficult in this case because ofthe numerous dependencies encountered in many multi-agent systems.In this thesis, we propose a common solution to facilitate the adaptation of these models on a parallel platformsuch as GPUs. Our library, MCMAS, provides access to two programming interface to facilitate this adaptation:a low-level layer providing direct access to OpenCL, MCM, and a high-level set of plugins not requiring anyGPU-related knowledge.We study the usage of this library on three existing multi-agent models : predator-prey,MIOR and Collembola. To prove the interest of the approach we present a performance study for each modeland an analysis of the various factors contributing to an efficient execution on GPUs. We finally conclude on aoverview of the work and results presented in the report and suggest future directions to enhance our solution.
60

Étude des tachykinines et de leurs dérivés peptidiques associés à la douleur neuropathique grâce à l'utilisation de modèles animaux et de la chromatographie en phase liquide couplée à la spectrométrie de masse / Study of tachykinin related peptides involved in neuropathic pain via animal models and liquid chromatography coupled to mass spectrometry

Pailleux, Floriane 20 December 2013 (has links)
La gestion de la douleur neuropathique reste un challenge en médecine, malgré le nombre de traitements actuellement disponible. L'expérimentation animale a généré beaucoup d'informations concernant la douleur, mais ces connaissances demeurent insuffisantes pour développer de nouveaux analgésiques plus efficaces tout en restant sécuritaires. La douleur est un symptôme clinique complexe avec de multiples origines, et les mécanismes de douleur centraux et périphériques dépendent de l'évolution de la pathologie. Il est donc essentiel d'investiguer plus profondément les mécanismes moléculaires responsables de l'initiation et du maintien de la douleur, afin de cibler de nouvelles voies de transmission de la nociception plus prometteuses pour soulager la neuropathie et développer de meilleures stratégies thérapeutiques. Ce projet s'est donc intéressé plus particulièrement à la famille des tachykinines issues du gène TAC1 (substance P, ses précurseurs et métabolites, et neurokinine A sont les peptides ciblés pour ce projet de recherche), une famille de neuropeptides qui joue un rôle critique dans la transmission nociceptive. Pour réaliser cette étude, nous avons d'abord développé une stratégie de quantification afin de quantifier les expressions des différents neuropeptides bioactifs cibles, par HPLCMS/ MS. Puisqu'il existe différentes stratégies de quantification des peptides par HPLCMS/ MS, une méthode analytique fiable et robuste était nécessaire pour répondre aux objectifs de recherche. Nous avons développé une méthode utilisant la quantification relative avec un étalon interne stable marqué isotopiquement. En effet, pour quantifier les neuropeptides d'intérêt de l'étude, c'est la stratégie qui s'est avérée la plus reproductible et précise. Suite à la mise au point de la stratégie de quantification, nous avons utilisé des modèles animaux, souvent nécessaires pour faire progresser la recherche scientifique sur la compréhension de la douleur / The management of neuropathic pain remains a challenge in medicine, despite the availability of numerous drugs. Animal experimentation has generated a tremendous amount of information about pain, but this knowledge is still insufficient for new more efficient and safe analgesics. Pain is a complex clinical symptom with multiple origins, and peripheral and central pain mechanisms depend on the pathology evolution. Thus, it is essential to further investigate the mechanisms responsible for the initiation and maintenance of pain in order to develop better effective therapies. This project is particularly focused on the tachykinin family encoded by TAC1 gene (substance P, its precursors and metabolites, neurokinin A), a family of neuropeptides that plays a critical role in nociceptive transmission. We initially developed a quantification strategy in order to study the targeted bioactive neuropeptide expression modulation by HPLC-MS and HPLC-MS/MS. And it is critical to develop reliable and robust analytical methods to reach the objectives. So, we developed a method using relative quantification with stable isotopic labeled internal standards. In fact, in order to quantify target neuropeptides, this strategy was the most reproducible and accurate. Following the development of the relative quantification strategy, we used validated animal models, fundamental to better knowledges of painful molecular mechanisms

Page generated in 0.0604 seconds