• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 74
  • 14
  • Tagged with
  • 186
  • 186
  • 131
  • 101
  • 87
  • 35
  • 33
  • 33
  • 29
  • 29
  • 29
  • 24
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Du support générique d'opérateurs de composition dans les modèles de composants logiciels, application au calcul à haute performance.

Bigot, Julien 06 December 2010 (has links) (PDF)
Les applications scientifiques posent un véritable défi de par leur complexité et la quantité de données qu'elles traitent. Leur exécution nécessite l'utilisation de ressources matérielles complexes et variées comme les super-calculateurs, les grappes et les grilles de calcul. Les modèles de composants logiciels et en particulier ceux qui proposent des schémas de composition adaptés au calcul à haute performance offrent une piste intéressante pour leur développement. Ces derniers permettent aux applications de s'abstraire des ressources d'exécution et de favoriser ainsi les performances à l'exécution sur une grande gammes d'architectures. Ces modèles restent toutefois limités à un ensemble restreint de schémas de composition. Il en résulte une multiplication des modèles dès que de nouvelles formes de composition apparaissent nécessaires, ce qui est dommageable à l'objectif de réutilisation. La complexité de modifier un modèle existant pour y intégrer de nouveaux opérateurs de composition défavorise aussi ces efforts. Cette thèse propose un modèle de composants logiciels appelé HLCM dans lequel de nouveaux opérateurs de composition peuvent être introduits sans modification du modèle. Ceci est rendu possible par l'introduction en son sein de quatre concepts : la hiérarchie, les connecteurs, la généricité et le choix de mise en œuvre. Afin de favoriser la réutilisation de l'existant, ce modèle est abstrait et il est rendu concret dans des spécialisations qui s'appuient sur les éléments primitifs de modèles existants. Au cours de ces travaux, nous avons étudié comment le concept de généricité pouvait s'appliquer aux modèles de composants et nous avons proposé une approche pour l'y intégrer. Nous avons étudié les interactions problématiques entre les concepts de connecteur et de hiérarchie et avons offert une solution s'appuyant sur une nouvelle approche pour la description des connexions entre composants. Finalement, nous avons proposé une approche pour la mise en œuvre de HLCM qui s'appuie sur des principes issus de l'ingénierie basée sur les modèles. Ces travaux ont été validés en développant un prototype de mise en œuvre de HLCM/CCM, une spécialisation de HLCM qui s'appuie sur le modèle de composant de Corba (CCM). Il a été utilisé pour décrire des interactions complexes entre composants (mémoire partagée et appels de méthode parallèles) et assurer une exécution efficace sur des ressources matérielles variées, notamment sur Grid'5000.
42

Développement de méthode d'analyse d'un biomarqueur de toxicité à partir de la sérum albumine modifiée

Ben Haddou, Souade 02 1900 (has links) (PDF)
Certains médicaments en se métabolisant dans le corps forment des métabolites dits « réactifs » (MR) qui peuvent entraîner une toxicité en se liant de manière covalente à des protéines pour former des adduits. Notre étude se concentre sur l'analyse d'adduits formés à partir d'une protéine sanguine : la sérum albumine humaine. En particulier, les adduits formés au niveau du site actif de l'albumine situé sur la cystéine en position 34. L'objectif principal de ce travail était de mettre en place une méthode d'analyse en chromatographie liquide haute performance (HPLC) couplée à la spectrométrie de masse en tandem (LC-MS/MS) permettant la détection et la caractérisation des adduits peptidiques issus de la sérum albumine modifiée. Le travail a consisté tout d'abord à valider par des réactions in vitro la formation d'adduit issus de médicaments connus pour former des MR avec un antioxydant naturel : le glutathion (GSH). En parallèle, en mimant le site actif de la sérum albumine humaine avec un peptide synthétique, le QQCPF, le profil de fragmentation en LC-MS/MS des adduits formés avec le QQCPF ont été comparé avec ceux obtenus par le GSH et ont permis de le valider comme agent de trappage. Pour de futures réactions in vivo, l'identification des adduits d'albumines en LC-MS implique une étape de digestion de l'albumine en peptides, le protocole de digestion de l'albumine en comparant plusieurs enzymes a été optimisé pour l'analyse en LC-MS des peptides digérés comportant la cystéine 34. Par ailleurs, une méthode de quantification de ce peptide modifié a été mise en place par l'introduction d'un étalon interne provenant d'une autre espèce d'albumine, l'albumine de rat. Le but ultime est que la sérum albumine soit utilisée comme biomarqueur sanguin de toxicité en utilisant cette méthodologie qui permettra avec un prélèvement sanguin d'identifier à partir de la sérum albumine humaine modifiée, la toxicité du médicament ingéré et ainsi améliorer la prévention de risque du médicament. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Sérum albumine, métabolite réactif, adduits, liaison covalente, spectrométrie de masse, fragmentation, séquençage, chromatographie liquide.
43

Analyse multi-échelle du processus de réionisation dans les simulations cosmologiques

Chardin, Jonathan 19 September 2013 (has links) (PDF)
La période de réionisation est une transition dans l'histoire de l'Univers qui change sont état d'ionisation. Les progrès en calcul intensif permettent maintenant de modéliser l'évolution du phénomène. D'habitude, les analyses se concentrent sur l'évolution de propriétés globales dans les simulations. Différemment, j'ai mis au point une nouvelle technique d'analyse de simulations qui permet d'appréhender le phémomène global de manière locale. Elle s'appuie sur l'extraction d'un arbre de fusion de régions HII pour caractériser le processus de réionisation. La technique a été appliqué dans plusieurs simulations où différents modèles de sources ont été considérés pour étudier leur impact sur la chrono-morphologie du processus. Dans un second temps, l'arbre a permis de caractériser l'histoire de réionisation passée de galaxies de types Voie Lactée. Enfin, la technique a été appliquée dans des simulations du Groupe Local pour quantifier l'histoire de réionisation de MW et M31.
44

Approche par la simulation pour la gestion de ressources / Simulation approach for resource management

Poquet, Millian 19 December 2017 (has links)
Les plateformes de calcul se multiplient, grandissent en taille et gagnent encomplexité.De nombreux défis restent à relever pour construire les prochaines générationsde plateformes, mais exploiter cesdites plateformes est également un défi en soi.Des contraintes comme la consommation énergétique, les mouvement de donnéesou la résilience risquent de devenir prépondérantes et de s'ajouter à lacomplexité actuelle de la gestion des plateformes.Les méthodes de gestion de ressources peuvent également évoluer avec laconvergence des différents types de plateformes distribuées.Les gestionnaires de ressources sont des systèmes critiques au cœur desplateformes qui permettent aux utilisateurs d'exploiter les ressources.Les faire évoluer est nécessaire pour exploiter au mieux lesressources en prenant en compte ces nouvelles contraintes.Ce processus d'évolution est risqué et nécessite de nombreuses itérationsqu'il semble peu raisonnable de réaliser in vivo tant les coûts impliquéssont importants.La simulation, beaucoup moins coûteuse, est généralement préférée pourfaire ce type d'études mais pose des questions quant au réalisme des résultatsainsi obtenus.La première contribution de cette thèse est de proposer une méthode desimulation modulaire pour étudier les gestionnaires de ressources et leurévolution --- ainsi que le simulateur résultant nommé Batsim.L'idée principale est de séparer fortement la simulation et les algorithmes deprise de décision.Cela permet une séparation des préoccupations puisque les algorithmes,quels qu'ils soient, peuvent bénéficier d'une simulation validée proposantdifférents niveaux de réalisme.Cette méthode simplifie la mise en production de nouvelles politiquespuisque des codes issus à la fois de gestionnaires de ressources de productionet de prototypes académiques peuvent être étudiés dans le même contexte.La méthode de simulation proposée est illustrée dans la seconde partie de cettethèse, qui s'intéresse à des problèmes de gestion de ressourcesnon clairvoyants mêlant optimisation des performances et de laconsommation énergétique.Différents algorithmes sont d'abord proposés et étudiés afin de respecter unbudget d'énergie pendant une période de temps donnée.Nous étudions ensuite plus généralement les différents compromis réalisablesentre performances et énergie grâce à différentes politiques d'extinction denœuds de calcul. / Computing platforms increasingly grow in power and complexity.Numerous challenges remain to build next generations of platforms,but exploiting the platforms is a challenge per se.Constraints such as energy consumption, data movements and resiliencerisk to initiate breaking points in the way that the platforms aremanaged --- especially with the convergence of the different types ofdistributed platforms.Resource and Jobs Management Systems (RJMSs) are critical middlewaresthat allow users to exploit the resources of such platforms.They must evolve to make the best use of the computing platforms whilecomplying with these new constraints.Each evolution ideally require many iterations, but conducting them in vivois not reasonable due to huge overhead.Simulation is an efficient way to tackle the subsequent problems,but particular caution must be taken when drawing results from simulationas using ill-suited models may lead to invalid results.The first contribution of this thesis is the proposition of a modularsimulation methodology to study RJMSs and their evolution realistically --- andthe related simulator Batsim.The main idea is to strongly separate the simulation from the decision-makingalgorithms.This allows separation of concerns as any algorithm can benefit from a validatedsimulation with multiple levels of realism (features, accuracy of the models).This methodology improves the production launch of new policies since bothacademic prototypes and production RJMSs can be studied in the same context.Batsim is used in the second part of this thesis,which focuses on online and non-clairvoyant resource management policies tosave energy.Several algorithms are first proposed and analyzed to maximize performancesunder an energy budget for a given time period.This thesis then explores more generally possible energy and performancestrade-offs that can be obtained with node shutdown techniques.
45

Modèles de programmation et supports exécutifs pour architectures hétérogènes / Programming Models and Runtime Systems for Heterogeneous Architectures

Henry, Sylvain 14 November 2013 (has links)
Le travail réalisé lors de cette thèse s'inscrit dans le cadre du calcul haute performance sur architectures hétérogènes. Pour faciliter l'écriture d'applications exploitant ces architectures et permettre la portabilité des performances, l'utilisation de supports exécutifs automatisant la gestion des certaines tâches (gestion de la mémoire distribuée, ordonnancement des noyaux de calcul) est nécessaire. Une approche bas niveau basée sur le standard OpenCL est proposée ainsi qu'une approche de plus haut niveau basée sur la programmation fonctionnelle parallèle, la seconde permettant de pallier certaines difficultés rencontrées avec la première (notamment l'adaptation de la granularité). / This work takes part in the context of high-performance computing on heterogeneous architectures. Runtime systems are increasingly used to make programming these architectures easier and to ensure performance portability by automatically dealing with some tasks (management of the distributed memory, scheduling of the computational kernels...). We propose a low-level approach based on the OpenCL specification as well as a high-level approach based on parallel functional programming.
46

Imagerie ultrasonore 2D et 3D sur GPU : application au temps réel et à l'inversion de forme d'onde complète / 2D and 3D ultrasoundimaging using GPU : toward real-time and full waveform inversion

Bachmann, Etienne 07 October 2016 (has links)
Si les avancées majeures en imagerie ultrasonore ont longtemps été liées à la qualité de l'instrumentation, l'avènement de l'informatique a incontestablement changé la donne en introduisant des possibilités croissantes de traitement des données pour obtenir une meilleure image. Par ailleurs, les GPUs, composants principaux des cartes graphiques, offrent de par leur architecture des vitesses de calcul bien supérieures aux processeurs, y compris à des fins de calcul scientifique. Le but de cette thèse a été de tirer parti de ce nouvel outil de calcul, en ciblant deux applications complémentaires. La première est d'autoriser une imagerie en temps réel de meilleure qualité que les autres techniques d'imagerie échographique, en parallélisant le procédé d'imagerie FTIM (Fast Topological IMaging). La seconde est d'introduire l'imagerie quantitative et en particulier la reconstruction de la carte de vitesse du milieu inconnu, en utilisant l'inversion de la forme d'onde complète. / If the most important progresses in ultrasound imaging have been closely linked to the instrumentation's quality, the advent of computing science revolutionized this discipline by introducing growing possibilities in data processing to obtain a better picture. In addition, GPUs, which are the main components of the graphics cards deliver thanks to their architecture a significantly higher processing speed compared with processors, and also for scientific calculation purpose. The goal of this work is to take the best benefit of this new computing tool, by aiming two complementary applications. The first one is to enable real-time imaging with a better quality than other sonographic imaging techniques, thanks to the parallelization of the FTIM (Fast Tpological IMaging) imaging process. The second one is to introduce quantitative imaging and more particularly reconstructing the wavespeed map of an unknown medium, using Full Waveform Inversion.
47

Calcul haute performance en dynamique des contacts via deux familles de décomposition de domaine / High performance computing of discrete nonsmooth contact dynamics via two domain décomposition methods

Visseq, Vincent 03 July 2013 (has links)
La simulation numérique des systèmes multicorps en présence d'interactions complexes, dont le contact frottant, pose de nombreux défis, tant en terme de modélisation que de temps de calcul. Dans ce manuscrit de thèse, nous étudions deux familles de décomposition de domaine adaptées au formalisme de la dynamique non régulière des contacts (NSCD). Cette méthode d'intégration implicite en temps de l'évolution d'une collection de corps en interaction a pour caractéristique de prendre en compte le caractère discret et non régulier d'un tel milieu. Les techniques de décomposition de domaine classiques ne peuvent de ce fait être directement transposées. Deux méthodes de décomposition de domaine proches des formalismes des méthodes de Schwarz et de complément de Schur sont présentées. Ces méthodes se révèlent être de puissants outils pour la parallélisation en mémoire distribuée des simulations granulaires 2D et 3D sur un centre de calcul haute performance. Le comportement de structure des milieux granulaires denses est de plus exploité afin de propager rapidement l'information sur l'ensemble des sous-domaines via un schéma semi-implicite d'intégration en temps. / Numerical simulations of the dynamics of discrete structures in presence of numerous impacts and frictional contacts leads to CPU-intensive large time computations. To deal with such realistic assemblies, numerical tools have been developed, in particular the method called nonsmooth contact dynamics (NSCD). Such modeling has to deal with discreteness and nonsmoothness, such that domain decomposition approaches for regular continuum media has to be rethought. We present further two domain decomposition method linked to Schwarz and Schur formalism. Scalability and numerical performances of the methods for 2D and 3D granular media is studied, showing good parallel behavior on a supercomputer platform. The structural behavior of dense granular packing is herein used to introduce a spacial multilevel preconditioner with a coarse problem to improve convergence in a space-time approach.
48

Contribution à la conception à base de composants logiciels d'applications scientifiques parallèles / Contribution to the design of scientific parallel applications based on software components

Pichon, Vincent 05 November 2012 (has links)
La conception d'applications scientifiques à base de couplage de code est une tâche complexe car elle demande de concilier une facilité de programmation et une obtention de haute performance. En outre, les ressources matérielles (supercalculateurs, grappes de calcul, grilles) permettant leur exécution forment un ensemble hétérogène en constante évolution. Les modèles à base de composants logiciels forment une piste prometteuse pour gérer ces deux sources de complexité car ils permettent d’exprimer les interactions entre les différents constituants d’une application tout en offrant des possibilités d'abstraction des ressources. Néanmoins, les modèles existants ne permettent pas d'exprimer de manière satisfaisante les applications constituées de motifs répliqués dynamiques et hiérarchiques. Ainsi, cette thèse vise à améliorer l'existant – et en particulier la plate-forme générique de simulation numérique SALOME – pour une classe d'applications très répandue : les applications à base de décomposition de domaine et la variante utilisant le raffinement de maillage adaptatif. Tout d'abord, nous avons proposé d’étendre le modèle de composition spatial et temporel de SALOME en ajoutant la possibilité de définir dynamiquement la cardinalité des composants. Cela demande en particulier de gérer les communications de groupes ainsi induites. La proposition a été implémentée dans SALOME et validée via une application de décomposition de domaine à base de couplage de plusieurs instances de Code_Aster. Ensuite, nous avons étudié la pertinence d'utiliser un modèle de composant supportant des connecteurs natifs (MPI, mémoire partagée, appel de méthode) pour permettre une composition plus fine des interactions entre composants. Les résultats d'expériences montrent que des performances équivalentes aux versions natives sont obtenues tout en permettant de manipuler facilement l'architecture de l'application. Enfin, nous avons étudié les extensions nécessaires aux modèles à composants (abstraction,hiérarchie, dynamicité) pour la conception d’applications de raffinement de maillage adaptatif. Les modèles de composants spatio-temporels les plus avancés permettent ainsi d'exprimer ce type d'application mais les performances sont limitées par leur mise en œuvre centralisée ainsi que par le manque de moyens efficaces pour modifier à la volée des assemblages de composants. / Designing scientific applications based on code coupling is a complex task. It requires both an easy programming process and high-performance. In addition, execution resources (supercomputers, computer clusters, grids)  are heterogeneous and constantly evolving. Software components models offer a promising perspective to manage this double complexity because they can express interactions between the different parts of an application while providing abstraction of resources. However, existing models cannot accurately express the applications made of dynamic and hierarchical patterns. The aim of this thesis is to improve the existing models, and in particular the generic platform for numerical simulation SALOME, for a class of widespread applications : applications based on domain decomposition, and its dynamic variant using adaptive mesh refinement. Firstly, we proposed to extend the spatial and temporal composition model provided by SALOME, by adding the ability to dynamically set component cardinality. This requires in particular to manage group communications induced. The proposal has been implemented into SALOME and validated via a domain decomposition application based on coupling several instances of Code_Aster.Then, we have studied the relevance of using a component model supporting native connectors (MPI, shared memory, method invocation), in order to allow finer composition interactions between components.The experiment results show that performances obtained are equivalent to those of the native versions, while allowing to easily manipulate the application architecture. Finally, we studied the necessary component models extensions (abstraction, hierarchy, dynamicity) for designing adaptative mesh refinement applications. The most advanced spatio-temporal component models can express this type of application but performances are limited by their centralized implementation and by the lack of efficient ways of modifying component assembling at execution time.
49

Cooperative Resource Management for Parallel and Distributed Systems / Gestion collaborative des ressources pour les systèmes parallèles et distribuées

Klein-Halmaghi, Cristian 29 November 2012 (has links)
Les ressources de calcul à haute performance (High-Performance Computing—HPC), telles que les supercalculateurs, les grappes, les grilles de calcul ou les Clouds HPC, sont gérées par des gestionnaires de ressources (Resource Management System—RMS) qui multiplexent les ressources entre plusieurs utilisateurs et décident comment allouer les nœuds de calcul aux applications des utilisateurs. Avec la multiplication de machines péta-flopiques et l’arrivée des machines exa-flopiques attendue en 2020, l’optimisation de l’allocation des ressources aux applications est essentielle pour assurer que leur exécution soit efficace. Cependant, les RMSs existants, tels que les batch schedulers, n’offrent qu’une interface restreinte. Dans la plupart des cas, l’application doit choisir les ressources « aveuglément » lors de la soumission sans pouvoir adapter son choix à l’état des ressources ciblées, ni avant, ni pendant l’exécution.Le but de cette Thèse est d’améliorer la gestion des ressources, afin de permettre aux applications d’allouer des ressources efficacement. Pour y parvenir, nous proposons des architectures logicielles qui favorisent la collaboration entre les applications et le gestionnaire de ressources, permettant ainsi aux applications de négocier les ressources qu’elles veulent utiliser. À cette fin, nous analysons d’abord les types d’applications et leurs besoins en ressources, et nous les divisons en plusieurs catégories : rigide, modelable, malléable et évolutive. Pour chaque cas, nous soulignons les opportunités d’amélioration de la gestion de ressources. Une première contribution traite les applications modelables, qui négocient les ressources seulement avant leur démarrage. Nous proposons CooRMv1, une architecture RMS centralisée, qui délègue la sélection des ressources aux lanceurs d’application. Des simulations montrent qu’un tel système se comporte bien en termes d’extensibilité et d’équité. Les résultats ont été validés avec un prototype déployé sur la plate-forme Grid’5000. Une deuxième contribution se focalise sur la négociation des allocations pour des ressources géographiquement distribuées qui appartiennent à plusieurs institutions. Nous étendons CooRMv1 pour proposer distCooRM, une architecture RMS distribuée, qui permet aux applications modelables de co-allouer efficacement des ressources gérées par plusieurs agents indépendants. Les résultats de simulation montrent que distCooRM se comporte bien et passe à l’échelle pour un nombre raisonnable d’applications. Ensuite, nous nous concentrons sur la négociation des ressources à l’exécution pour mieux gérer les applications malléables et évolutives. Nous proposons CooRMv2, une architecture RMS centralisée, qui permet l’ordonnancement efficace des applications évolutives, et surtout celles dont l’évolution n’est pas prévisible. Une application peut faire des « pré-allocations » pour exprimer ses pics de besoins en ressources. Cela lui permet de demander dynamiquement des ressources, dont l’allocation est garantie tant que la pré-allocation n’est pas dépassée. Les ressources pré-allouées mais inutilisées sont à la disposition des autres applications. Des gains importants sont ainsi obtenus, comme les simulations que nous avons effectuées le montrent.Enfin, nous partons de logiciels utilisés en production pour illustrer l’intérêt, mais aussi la difficulté, d’améliorer la collaboration entre deux systèmes existants. Avec GridTLSE comme application et DIET comme RMS, nous avons trouvé un cas d’utilisation mal supporté auparavant. Nous identifions le problème sous-jacent d’ordonnancement des calculs optionnels et nous proposons une architecture pour le résoudre. Des expériences réelles sur la plate-forme Grid’5000 montrent que plusieurs métriques peuvent être améliorées, comme par exemple la satisfaction des utilisateurs, l’équité et le nombre de requêtes traitées. En outre, nous montrons que cette solution présente une bonne extensibilité. / High-Performance Computing (HPC) resources, such as Supercomputers, Clusters, Grids and HPC Clouds, are managed by Resource Management Systems (RMSs) that multiple resources among multiple users and decide how computing nodes are allocated to user applications. As more and more petascale computing resources are built and exascale is to be achieved by 2020, optimizing resource allocation to applications is critical to ensure their efficient execution. However, current RMSs, such as batch schedulers, only offer a limited interface. In most cases, the application has to blindly choose resources at submittal without being able to adapt its choice to the state of the target resources, neither before it started nor during execution. The goal of this Thesis is to improve resource management, so as to allow applications to efficiently allocate resources. We achieve this by proposing software architectures that promote collaboration between the applications and the RMS, thus, allowing applications to negotiate the resources they run on. To this end, we start by analysing the various types of applications and their unique resource requirements, categorizing them into rigid, moldable, malleable and evolving. For each case, we highlight the opportunities they open up for improving resource management.The first contribution deals with moldable applications, for which resources are only negotiated before they start. We propose CooRMv1, a centralized RMS architecture, which delegates resource selection to the application launchers. Simulations show that the solution is both scalable and fair. The results are validated through a prototype implementation deployed on Grid’5000. Second, we focus on negotiating allocations on geographically-distributed resources, managed by multiple institutions. We build upon CooRMv1 and propose distCooRM, a distributed RMS architecture, which allows moldable applications to efficiently co-allocate resources managed by multiple independent agents. Simulation results show that distCooRM is well-behaved and scales well for a reasonable number of applications. Next, attention is shifted to run-time negotiation of resources, so as to improve support for malleable and evolving applications. We propose CooRMv2, a centralized RMS architecture, that enables efficient scheduling of evolving applications, especially non-predictable ones. It allows applications to inform the RMS about their maximum expected resource usage, through pre-allocations. Resources which are pre-allocated but unused can be filled by malleable applications. Simulation results show that considerable gains can be achieved. Last, production-ready software are used as a starting point, to illustrate the interest as well as the difficulty of improving cooperation between existing systems. GridTLSE is used as an application and DIET as an RMS to study a previously unsupported use-case. We identify the underlying problem of scheduling optional computations and propose an architecture to solve it. Real-life experiments done on the Grid’5000 platform show that several metrics are improved, such as user satisfaction, fairness and the number of completed requests. Moreover, it is shown that the solution is scalable.
50

3D simulation of acoustical shock waves propagation through a turbulent atmosphere. Application to sonic boom / Simulation 3D de la propagation d'ondes de choc acoustiques en atmosphère turbulente. Application au bang sonique

Luquet, David 08 January 2016 (has links)
Cette thèse traite des effets de la turbulence atmosphérique sur la propagation d'ondes de choc acoustiques. Ces effets sont d'un grand intérêt pour des applications comme le bang sonique, le buzz saw noise ou le tonnerre. Une méthode numérique unidirectionnelle est développée pour modéliser et simuler la propagation tridimensionnelle d'ondes de choc acoustiques en milieu hétérogène en mouvement. Elle repose sur une approche à pas fractionnés qui permet de prendre en compte efficacement les différents mécanismes physiques présents. Pour s'attaquer à des problèmes 3D réalistes (de l'ordre du milliard de degré de liberté), l'implémentation de la méthode est réalisée en utilisant le paradigme de programmation parallèle " single program multiple data ". La validité de cette méthode est évaluée sur différents cas tests. La méthode est appliquée à l'étude des effets de la turbulence atmosphérique sur la propagation du bang sonique dans la couche limite planétaire. Ainsi, le bang sous trace et le bang dans la zone d'ombre sont calculés pour la configuration hypersonique développée dans le projet européen ATLLAS II. Enfin, la focalisation de chocs faibles sur une caustique cuspidée est simulée. Cela est, à notre connaissance, la première étude de la stabilité d'une caustique non linéaire à des perturbations dues à un écoulement. / This thesis deals with the effects of atmospheric turbulence on the propagation of acoustical shock waves. These effects are of major interest for applications such as sonic boom, buzz saw noise or thunder. A numerical one-way method is developed to model and to simulate three-dimensional nonlinear propagation of acoustical shock waves in a moving heterogeneous medium. It relies on a split-step approach that permits to take into account efficiently the different involved physical mechanisms. To tackle realistic 3D problems (of order of one billion of degree of freedom), the implementation of the method is done using the parallel single program multiple data paradigm. Validity of this method is assessed using multiple test cases. The method is applied to investigate the effects of atmospheric turbulence on sonic boom propagation through the Planetary Boundary Layer. Hence, both under-track boom and boom in the shadow zone are studied for a hypersonic configuration developed in the European project ATLLAS II. Finally, the focusing of weak shock waves on a cusped caustic is simulated. It is the first study of the stability of a nonlinear caustic to flow perturbations to our knowledge.

Page generated in 0.1353 seconds