• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthode EF2 et hyperréduction de modèle : vers des calculs massifs à l'échelle micro / FE2 method and hyperreduction : towards intensive computations at the micro scale

Peyre, Georges 22 September 2015 (has links)
Des méthodes de réduction de modèle sont utilisées pour diminuer le coût de calcul associé à des analyses paramétriques de structures qui requièrent un très grand nombre de simulations quasi-identiques. Parmi ces méthodes, l'hyperréduction de modèle est efficace pour attaquer les problèmes de mécanique non-linéaire. Une approche orientée objet de cette méthode dans le cadre d'un code éléments finis modulaire a été développée. L'architecture logicielle s'appuie sur un algorithme qui se déroule en deux étapes : une étape extit{offline} dans laquelle le modèle réduit est construit à partir d'états du système mécanique et une étape extit{online} de calcul réduit qui exploite le modèle réduit. La structure du code qui repose sur l'utilisation d'un élément réduit permet d'améliorer la performance, de simplifier la prise en main et de favoriser sa réutilisation dans les développements futurs de la méthode. En outre, la méthode d'hyperréduction est revisitée et améliorée : des bases réduites vectorielles et tensorielles sont mises en oeuvre pour traiter les champs de contraintes et de variables internes des calculs éléments finis non-linéaires. En particulier, l'accent est mis sur la prise en compte des conditions aux limites périodiques et des conditions de bord libre. Dans cette démarche, les conditions aux limites au bord du domaine réduit sont imposées dans l'équation de l'équilibre mécanique réduit. Des exemples d'inclusions élastiques fibre/matrice sont fournis ainsi qu'un calcul complet adaptatif non-linéaire sur plaque perforée. Pour prendre en compte les effets de la microstructure, les méthodes éléments finis au carré ($EF^{2}$) divisent le problème mécanique en deux échelles. A l'échelle microscopique, les équations de comportement sont intégrées sur le volume élémentaire représentatif (VER) sollicité en condition périodique. Le comportement de la structure macroscopique est déterminé par homogénéisation. Une méthode d'hyperréduction multidimensionnelle est appliquée au problème microscopique constitué de l'ensemble des volumes élémentaires représentatifs. On se sert d'un algorithme de Broyden-Fletcher-Goldfarb-Shanno (BFGS) pour mettre à jour les matrices tangentes macroscopiques en chaque point de Gauss. On parvient ainsi à diminuer le temps de calcul sur des modèles de faible dimension. Cependant, quand le nombre de degrés de liberté augmente, on démontre que l'hyperréduction de modèle multidimensionnelle ne parvient pas à réduire suffisamment les coûts de calcul. / Model Order Reduction (MOR) methods are used to cope with high computational costs typically involved in parametric analysis of structures requiring a huge number of almost similar simulations. Among them, a so-called hyperreduction method suitable for non-linear mechanical finite element (FE) problems is studied. An objected-oriented approach to deal with it in the framework of a FE software is carried out. The software design takes advantage of a two-level process : a so-called offline computation step in which the reduced model is set up based on collected snapshots of mechanical system states and an online high-speed reduced computation which runs the reduced model. The code design relying on a reduced element is expected to enhance performance, to give a clearer view over the process and to favour code reuse in subsequent developments of the method. Futhermore, the hyperreduction method is reviewed and is deeply improved : vector and tensor bases are introduced to deal with non-scalar fields which arise in non-linear mechanical FE problems and the mechanical balance is ensured in the extrapolation phase. A particular emphasis is placed on the treatment of free and periodic boundary conditions. In this approach, the boundary conditions at the edge of the reduced integration domain are enforced in the reduced balance equations. Numerical toy examples of elasticity fiber/matrix inclusions as well as a full adaptative non-linear simluation are provided to show the capabilities of the implementation. To take into account microstructural behaviors, FE2 methods consist in splitting the computation into two scales. At the micro scale the material constitutive equations are integrated over periodic RVEs. The behavior of the macro structure is carried out by a homogeneized process. A multidimensional hyperreduction method is applied to the massive micro problem composed of the set of the periodic RVEs. A BFGS algorithm is used to update the macro tangent matrices at each integration Gauss point. Some speed-ups are recorded for low dimensional models. However, as the number of degrees of freedom increases, the multidimensional hyperreduction method is proved to be far less efficient to cut computational costs down.
2

Concevoir et partager des workflows d’analyse de données : application aux traitements intensifs en bioinformatique / Design and share data analysis workflows : application to bioinformatics intensive treatments

Moreews, François 11 December 2015 (has links)
Dans le cadre d'une démarche d'Open science, nous nous intéressons aux systèmes de gestion de workflows (WfMS) scientifiques et à leurs applications pour l'analyse de données intensive en bioinformatique. Nous partons de l'hypothèse que les WfMS peuvent évoluer pour devenir des plates-formes pivots capables d'accélérer la mise au point et la diffusion de méthodes d'analyses innovantes. Elles pourraient capter et fédérer autour d'une thématique disciplinaire non seulement le public actuel des consommateurs de services mais aussi celui des producteurs de services. Pour cela, nous considérons que ces environnements doivent à la fois être adaptés aux pratiques des scientifiques concepteurs de méthodes et fournir un gain de productivité durant la conception et le traitement. Ces contraintes nous amènent à étudier la capture rapide des workflows, la simplification de l'intégration des tâches techniques, comme le parallélisme nécessaire au haut-débit, et la personnalisation du déploiement. Tout d'abord, nous avons défini un langage graphique DataFlow expressif, adapté à la capture rapide des workflows. Celui-ci est interprétable par un moteur de workflows basé sur un nouveau modèle de calcul doté de performances élevées, obtenues par l'exploitation des multiples niveaux de parallélisme. Nous présentons ensuite une approche de conception orientée modèle qui facilite la génération du parallélisme de données et la production d'implémentations adaptées à différents contextes d'exécution. Nous décrivons notamment l'intégration d'un métamodèle des composants et des plates-formes, employé pour automatiser la configuration des dépendances des workflows. Enfin, dans le cas du modèle Container as a Service (CaaS), nous avons élaboré une spécification de workflows intrinsèquement diffusable et ré-exécutable. L'adoption de ce type de modèle pourrait déboucher sur une accélération des échanges et de la mise à disposition des chaînes de traitements d'analyse de données. / As part of an Open Science initiative, we are particularly interested in the scientific Workflow Management Systems (WfMS) and their applications for intensive data analysis in bioinformatics. We start from the assumption that WfMS can evolve to become efficient hubs able to speed up the development and the dissemination of innovative analysis methods. These software platforms could rally and unite not only the current stakeholders, who are service consumers, but also the service producers, around a disciplinary theme. We therefore consider that these environments must be both adapted to the practices of the scientists who are method designers and also enhanced with increased productivity during design and treatment. These constraints lead us to study the rapid capture of workflows, the simplification of technical tasks integration, like parallelisation and the deployment customization. First, we define an expressive graphic worfklow language, adapted to the quick capture of workflows. This is interpreted by a workflow engine based on a new model of computation with high performances obtained by the use of multiple levels of parallelism. Then, we present a Model-Driven design approach that facilitates the data parallelism generation and the production of suitable implementations for different execution contexts. We describe in particular the integration of a components and platforms meta-model used to automate the configuration of workflows’ dependencies. Finally, in the case of the cloud model Container as a Service (CaaS), we develop a workflow specification intrinsically re-executable and readily disseminatable. The adoption of this kind of model could lead to an acceleration of exchanges and a better availability of data analysis workflows.
3

Scalable, Memory-Intensive Scientific Computing on Field Programmable Gate Arrays

Mirza, Salma 01 January 2010 (has links) (PDF)
Cache-based, general purpose CPUs perform at a small fraction of their maximum floating point performance when executing memory-intensive simulations, such as those required for many scientific computing problems. This is due to the memory bottleneck that is encountered with large arrays that must be stored in dynamic RAM. A system of FPGAs, with a large enough memory bandwidth, and clocked at only hundreds of MHz can outperform a CPU clocked at GHz in terms of floating point performance. An FPGA core designed for a target performance that does not unnecessarily exceed the memory imposed bottleneck can then be distributed, along with multiple memory interfaces, into a scalable architecture that overcomes the bandwidth limitation of a single interface. Interconnected cores can work together to solve a scientific computing problem and exploit a bandwidth that is the sum of the bandwidth available from all of their connected memory interfaces. The implementation demonstrates this concept of scalability with two memory interfaces through the use of available FPGA prototyping platforms. Even though the FPGAs operate at 133 MHz, which is twenty one times slower than an AMD Phenom X4 processor operating at 2.8 GHz, the system of two FPGAs performs eight times slower than the processor for the example problem of SMVM in heat transfer. However, the system is demonstrated to be scalable with a run-time that decreases linearly with respect to the available memory bandwidth. The floating point performance of a single board implementation is 12 GFlops which doubles to 24 GFlops for a two board implementation, for a gather or scatter operation on matrices of varying sizes.

Page generated in 0.1435 seconds