• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Extending Polyhedral Techniques towards Parallel Specifications and Approximations / Extension des Techniques Polyedriques vers les Specifications Parallelles et les Approximations

Isoard, Alexandre 05 July 2016 (has links)
Les techniques polyédriques permettent d’appliquer des analyses et transformations de code sur des structures multidimensionnelles telles que boucles imbriquées et tableaux. Elles sont en général restreintes aux programmes séquentiels dont le contrôle est affine et statique. Cette thèse consiste à les étendre à des programmes comportant par exemple des tests non analysables ou exprimant du parallélisme. Le premier résultat est l'extension de l’analyse de durée de vie et conflits mémoire, pour les scalaires et les tableaux, à des programmes à spécification parallèle ou approximée. Dans les travaux précédents sur l’allocation mémoire pour laquelle cette analyse est nécessaire, la notion de temps ordonne totalement les instructions entre elles et l’existence de cet ordre est implicite et nécessaire. Nous avons montré qu'il est possible de mener à bien de telles analyses sur un ordre partiel quelconque qui correspondra au parallélisme du programme étudié. Le deuxième résultat est d'étendre les techniques de repliement mémoire, basées sur les réseaux euclidiens, de manière à trouver automatiquement une base adéquate à partir de l'ensemble des conflits mémoire. Cet ensemble est fréquemment non convexe, cas qui était traité de façon insuffisante par les méthodes précédentes. Le dernier résultat applique les deux analyses précédentes au calcul par blocs "pipelinés" et notamment au cas de blocs de taille paramétrique. Cette situation donne lieu à du contrôle non-affine mais peut être traité de manière précise par le choix d’approximations adaptées. Ceci ouvre la voie au transfert efficace de noyaux de calculs vers des accélérateurs tels que GPU, FPGA ou autre circuit spécialisé. / Polyhedral techniques enable the application of analysis and code transformations on multi-dimensional structures such as nested loops and arrays. They are usually restricted to sequential programs whose control is both affine and static. This thesis extend them to programs involving for example non-analyzable conditions or expressing parallelism. The first result is the extension of the analysis of live-ranges and memory conflicts, for scalar and arrays, to programs with parallel or approximated specification. In previous work on memory allocation for which this analysis is required, the concept of time provides a total order over the instructions and the existence of this order is an implicit requirement. We showed that it is possible to carry out such analysis on any partial order which match the parallelism of the studied program. The second result is to extend memory folding techniques, based on Euclidean lattices, to automatically find an appropriate basis from the set of memory conflicts. This set is often non convex, case that was inadequately handled by the previous methods. The last result applies both previous analyzes to "pipelined" blocking methods, especially in case of parametric block size. This situation gives rise to non-affine control but can be processed accurately by the choice of suitable approximations. This paves the way for efficient kernel offloading to accelerators such as GPUs, FPGAs or other dedicated circuit.
572

Optimisation semi-infinie sur GPU pour le contrôle corps-complet de robots / GPU-based Semi-Infinite Optimization for Whole-Body Robot Control

Chrétien, Benjamin 08 July 2016 (has links)
Un robot humanoïde est un système complexe doté de nombreux degrés de liberté, et dont le comportement est sujet aux équations non linéaires du mouvement. Par conséquent, la planification de mouvement pour un tel système est une tâche difficile d'un point de vue calculatoire. Dans ce mémoire, nous avons pour objectif de développer une méthode permettant d'utiliser la puissance de calcul des GPUs dans le contexte de la planification de mouvement corps-complet basée sur de l'optimisation. Nous montrons dans un premier temps les propriétés du problème d'optimisation, et des pistes d'étude pour la parallélisation de ce dernier. Ensuite, nous présentons notre approche du calcul de la dynamique, adaptée aux architectures de calcul parallèle. Cela nous permet de proposer une implémentation de notre problème de planification de mouvement sur GPU: contraintes et gradients sont calculés en parallèle, tandis que la résolution du problème même se déroule sur le CPU. Nous proposons en outre une nouvelle paramétrisation des forces de contact adaptée à notre problème d'optimisation. Enfin, nous étudions l'extension de notre travail au contrôle prédictif. / A humanoid robot is a complex system with numerous degrees of freedom, whose behavior is subject to the nonlinear equations of motion. As a result, planning its motion is a difficult task from a computational perspective.In this thesis, we aim at developing a method that can leverage the computing power of GPUs in the context of optimization-based whole-body motion planning. We first exhibit the properties of the optimization problem, and show that several avenues can be exploited in the context of parallel computing. Then, we present our approach of the dynamics computation, suitable for highly-parallel processing architectures. Next, we propose a many-core GPU implementation of the motion planning problem. Our approach computes the constraints and their gradients in parallel, and feeds the result to a nonlinear optimization solver running on the CPU. Because each constraint and its gradient can be evaluated independently for each time interval, we end up with a highly parallelizable problem that can take advantage of GPUs. We also propose a new parametrization of contact forces adapted to our optimization problem. Finally, we investigate the extension of our work to model predictive control.
573

Spéculer pour autrui dans un monde incertain. Comment les investisseurs professionnels évaluent les gérants d'actifs financiers / Speculating for others in a world filled with uncertainty. How professional investors evaluate financial asset managers

Larminat, Pierre de 20 March 2013 (has links)
En prenant le cas de l'évaluation des gérants d'actifs financiers par les investisseurs professionnels, la présente thèse étudie les réponses que des agents économiques apportent aux problèmes pratiques que pose la nécessité d'agir et de justifier son action en situation d'incertitude.La thèse marie, dans une perspective durkheimienne, une analyse morphologique du champ de la gestion d'actifs et une analyse des pratiques d'évaluation des gérants par les investisseurs professionnels.La démarche empirique consiste à rassembler des matériaux variés afin d'enregistrer les multiples formes de manifestation d'un fait social total. Les uns sont produits au cours d'une enquête ethnographique du champ de la gestion d'actifs: ce sont des entretiens semi-directifs, des observations directes d'interactions sociales, et des artefacts produits et utilisés dans le cadre des pratiques étudiées. Les autres, statistiques ou données institutionnelles, sont collectés auprès d'acteurs de la gestion d'actifs. Tous ces matériaux sont analysés de manière interprétative.L'analyse morphologique découvre les divisions, les articulations et les proportions des organisations où est pratiquée la gestion d'actifs financiers. L'autonomisation du champ professionnel de la gestion d'actifs s'accompagne d'une division du travail qui place en son centre les gérants, constitués en spéculateurs, c'est-à-dire en agents économiques dont l'action ne s'intéresse qu'aux variations de prix, par opposition aux acteurs dont la fonction est de prolonger le geste spéculatif par un geste marchand. La structure de rémunération des sociétés de gestion nourrit un conflit entre les gérants d'actifs et les commerciaux sur le partage du profit, dont la résolution conduit à une polarisation des sociétés entre un modèle industriel et un modèle artisanal.L'évaluation des gérants d'actifs par les investisseurs professionnels prend son sens dans le cadre de l'appréciation de l'efficacité technique des actions spéculatives par des sujets exposés à une incertitude financière qu'ils s'efforcent de réduire. Les investisseurs professionnels ordonnent leurs pratiques d'évaluation entre une analyse "quantitative" et une analyse "qualitative" des gérants évalués. Contrairement à ce que l'usage de cette forme de classification suggère, ce n'est pas le recours à la quantification ou au calcul en tant que tels qui différencie ces deux types d'analyse, comme s'il s'agissait de deux régimes épistémiques imparfaits mais complémentaires. C'est leur statut dans la relation fonctionnelle qui les lie l'un à l'autre: recherche de la forme de l'incertitude financière d'une part, et recherche des conditions sociales qui l'ont générée d'autre part. Imparfaitement liée aux phénomènes auxquels elle s'applique, la forme de classification "quanti/quali" correspond aux ressources acquises par les investisseurs professionnels au cours de leur trajectoire de socialisation, et mobilisées dans le cadre d'une division sociale du travail où les pratiques d'analyse sont partagées entre des postes et des positions différenciées au sein des organisations.Ce travail complexifie et enrichit la compréhension des pratiques financières et des pratiques de réduction de l'incertitude en montrant qu'elle ne peut faire l'économie de leurs soubassements sociaux. Elle précise le domaine de validité d'une forme de classification et offre aux acteurs concernés le moyen de discuter à nouveaux frais l'efficacité ou la pertinence de leurs procédés d'analyse. / This dissertation uses the evaluation of asset managers by professional investors as a case for the study of the ways in which economic agent deal with the necessity of acting and to give account of one's actions while facing uncertainty.This dissertation follows a durkheimian approach as it combines a morphological analysis of the asset management field with an analysis of evaluation practices of asset managers by professional investors.Empirical materials of various kinds have been gathered, in order to record the numerous ways in which a total social fact manifests itself. Some of the materials derive from an ethnographic research in the field of asset management: these are semi-directive interviews, direct observations of social interactions, and artefacts produced and used as part of the practices that the research investigates. The other materials are statistics or institutional data that have been collected during the field research. Interpretive analysis has been applied to them.The morphological analysis of asset management as a social field highlights the divisions, articulations and proportions of the organizations where financial asset management practices are carried out. The autonomization of asset management as a professional field goes along with a social division of labour that is structured around the asset managers. It makes them become speculators, that is economic agents who focus solely on price variations. By contrast, other actors ensure that the speculative movement is followed by a fully carried out trade. The income structure of asset management firms feeds a conflict between asset managers and salespersons about the distribution of profit. The resolution of this conflict leads to a polarization of asset management firms between firms following a model designed after the manufacturing industry, and firms following a model leaning towards craftmanship.The evaluation of asset managers by professional investors makes sense in a social frame where it stands as an appraisal of the efficiency of speculative actions undertaken by agents who try and reduce the financial uncertainty that they face. Professional investors classify their evaluation practices among a "quantitative" analysis and a "qualitative" analysis of asset managers. Although this form of classification may suggest that the two types of analysis cover two kinds of knowledge that are imperfect yet complementary, it is not quantification or calculation per se that differentiates between them. They are functionally related to each other: assessment of the form taken by financial uncertainty on the one hand, and search for the social conditions that caused uncertainty to take such form on the other hand. The form of classification "quantitative/qualitative" meets imperfectly the phenomena to which it is applied. It matches the social distribution of resources that professional investors gained during their socialization trajectory, and that they mobilized in the frame of a specific kind of social division of labour, where analytic practices are also distributed among differentiated positions within organizations.This dissertation complexifies and enriches the understanding of financial practices and of uncertainty reduction practices by showing that such understanding cannot forget their social foundations. It circumscribes the domain of validity of a specific form of classification and it provides interested actors with tools with which they can discuss anew the efficiency or the relevance of their analytic processes.
574

Modélisation par la méthode Lattice Boltzmann de la diffusion de chaleur et d’humidité dans des matériaux biosourcés à partir de leur morphologie 3D / Heat and moisture diffusion in bio-based materials from their 3D morphology using Lattice Boltzmann method

Louërat, Mathilde 19 January 2017 (has links)
Avec la performance thermique croissante des bâtiments, les codes de simulation utilisés en conception requièrent des données de plus en plus précises sur les matériaux de construction. De plus, l’utilisation de matériaux biosourcés qui sont hygroscopiques (leur teneur en eau s’équilibre avec l’air humide ambiant) est en pleine expansion. Leur conductivité thermique et leur diffusivité massique doivent ainsi être caractérisées précisément. Un facteur essentiel affectant ces propriétés est la microstructure des matériaux. Ce travail de thèse propose de prédire les propriétés macroscopiques d’épicéa et de panneaux de fibres de bois (matériaux hétérogènes et anisotropes) à partir de leur morphologie réelle 3D. Celle-ci est obtenue par micro-tomographie synchrotron aux rayons X, outil très performant pour caractériser la structure interne d’un matériau de façon non destructive. Un traitement d’images permet de segmenter les phases solide et gazeuse. La méthode numérique choisie pour modéliser la diffusion de chaleur et de masse est la méthode Lattice Boltzmann car elle est simple à implémenter et à paralléliser et qu’elle peut facilement traiter des morphologies complexes. Les conductivités thermiques et diffusivités massiques équivalentes sont calculées dans trois directions orthogonales pour chaque matériau. Les résultats mettent en évidence l’influence de la structure interne et la forte anisotropie des matériaux étudiés (rapport 2 entre les directions tangentielle et longitudinale du bois en thermique et 30 en massique). La conductivité thermique transversale du panneau léger est de 0,04 W m−1 K−1. / As thermal performance of buildings is increasing, the simulation codes used during design require more accurate construction material data. Moreover, the use of bio-based materials which are hygroscopic (their moisture content balances with the ambient moist air) is booming. Their thermal conductivity and mass diffusivity must therefore be accurately characterized. A key factor affecting these properties is the microstructure of the materials. This work is dedicated to the prediction of macroscopic properties of spruce and fibreboards (heterogeneous and anisotropic materials) from their real 3D morphology. This is obtained by synchrotron X-ray microtomography, a powerful and nondestructive technique to characterize the internal structure of materials. Image processing allows the segmentation of the solid and gaseous phases. To model heat and mass diffusion, we choose the Lattice Boltzmann method because of its simple numerical development, suitability for parallel computing and easy processing of complex morphologies. The equivalent thermal conductivity and mass diffusivity are calculated in three orthogonal directions for each material. The results highlight the influence of the internal structure and the strong anisotropy of the materials studied (ratio of 2 between tangential and longitudinal directions of wood for heat diffusion and of 30 for mass diffusion). The transverse thermal conductivity of the lightweight board is about 0,04 W m−1 K−1.
575

Stationnarité forte sur des graphes discrets ou quantiques / Strong stationnarity on discrete or quantum graphs

Copros, Guillaume 19 July 2018 (has links)
Dans cette thèse, on s'intéresse à la notion de temps fort de stationnarité et à celle, étroitement liée, de dual de stationnarité forte. Ces outils permettent d'étu- dier la convergence de processus ergodiques, en déterminant un instant aléatoire où l'équilibre est atteint. Les espaces d'état des processus considérés ici sont des graphes continus ou discrets. Dans la première partie, on considère le cas discret, et on dégage une condition nécessaire et suffisante à l'existence, pour n'importe quelle loi initiale, d'un temps fort de stationnarité fini. Pour cela, on construit explicitement un dual de station- narité forte, à valeurs dans l'ensemble des parties connexes du graphe, qui évolue à chaque étape en ajoutant ou en enlevant des points de sa frontière. Lorsque cette opération sépare l'ensemble dual en plusieurs parties, afin de ne pas le déconnecter, une de ces parties est choisie au hasard, avec une probabilité proportionnelle à son poids par la mesure invariante. On s'intéresse également au comportement général d'un processus dual, et on donne quelques exemples différents de celui construit précédemment. Dans la deuxième partie, on traite le cas continu, et le processus étudié est alors une diffusion. On caractérise notamment sa mesure invariante, et on explicite un générateur infinitésimal qui devrait être celui d'un processus dual. Néanmoins, ce cas s'avère plus compliqué que le cas discret. Le processus dual n'est donc construit que pour un mouvement brownien sur un graphe particulier, comme l'unique so- lution d'un problème de martingale. Des pistes sont présentées pour traiter des diffusions sur des graphes plus généraux, notamment en utilisant la convergence d'une suite de processus de saut tels que ceux présentés dans la première partie. / In this thesis, we are interested in the notion of strong stationary time, and in that, strongly connected, of strong stationary dual. These tools allow to study the convergence of ergodic processes, by determining a random time when the equilibrium is reached. The state space of the considered processes are discrete or continuous graphs. In the first part, we consider the discrete case, and we explicit a necessary and sufficient condition to the existence, for any initial distribution, of a finite strong stationary time. To do so, we construct explicitly a strong stationary dual, with values in the set of connected subsets of the graph, which evolves at each step by adding or removing some points at its border. Whenever this operation separates the dual set in several parts, in order not to disconnect it, one of these parts is chosen randomly, with a probability proportionnal to its weight relative to the invariant distribution. We also study the general behaviour of any dual process,2 and we give some other examples. In the second part, we deal with the continuous case, and the studied process is then a diffuion. We caracterize its invariant distribution, and we explicit an infinitesimal generator, which is expected to be that of a dual process. Nevertheless, this case turns out to be a little more involved that the discrete one. The dual process is thus constructed only for a brownian motion on a particular graph, as the unique solution of a martingale problem. Some leads are given to solve the case of diffusions on more general graphs, especially by using the convergence of a sequence of jump processes such as those presented in the first part.
576

Discrétisation automatique de machines à signaux en automates cellulaires / Automatic discretization of signal machines into cellular automata

Besson, Tom 10 April 2018 (has links)
Dans le contexte du calcul géométrique abstrait, les machines à signaux ont été développées comme le pendant continu des automates cellulaires capturant les notions de particules, de signaux et de collisions. Une question importante est la génération automatique d’un automate cellulaire reproduisant la dynamique d’une machine à signaux donnée. D’une part, il existe des conversions ad hoc. D’autre part, ce n’est pas toujours possible car certaines machines à signaux présentent des comportements « continus ». Par conséquent, la discrétisation automatique de telles structures est souvent complexe et pas toujours possible. Cette thèse propose trois manières différentes de discrétiser automatiquement les machines à signaux en automates cellulaires, avec ou sans approximation possible. La première s’intéresse à une sous-catégorie de machines à signaux, qui présente des propriétés permettant d’assurer une discrétisation automatique exacte pour toute machine de ce type. La deuxième est utilisable sur toutes les machines mais ne peut assurer ni l’exactitude ni la correction du résultat. La troisième s’appuie sur une nouvelle expression de la dynamique d’une machine à signaux pour proposer une discrétisation. Cette expression porte le nom de modularité et est décrite avant d’être utilisée pour discrétiser. / In the context of abstract geometrical computation, signal machines have been developed as a continuous counter part of cellular automata capturing the notions of particles, signals and collisions. An important issue is the automatic generation of a cellular automaton mimicking the dynamics of a given signal machine. On the one hand, ad hoc conversions exist.On the other hand, it is not always possible since some signal machines exhibit “purely continuous” behaviors. Therefore, automatically discretizing such structures is often complicated and not always possible. This thesis proposes different ways to automatically discretize signal machines into cellular automata, both with and without handling the possiblity of approximation.The first is concerned with a subcategory of signal machines, which has properties ensuring an exact automatic discretization for any machine of this type. The second is usable on all machines but cannot guarantee the exactness and correction of the result. The third is based on a new expression of the dynamics of a signal machine to propose a discretization.This dynamical expression takes the name of modularity and is described before being used to discretize.
577

Méthodes de décomposition de domaine. Application au calcul haute performance / Domain decomposition methods. Application to high-performance computing

Jolivet, Pierre 02 October 2014 (has links)
Cette thèse présente une vision unifiée de plusieurs méthodes de décomposition de domaine : celles avec recouvrement, dites de Schwarz, et celles basées sur des compléments de Schur, dites de sous-structuration. Il est ainsi possible de changer de méthodes de manière abstraite et de construire différents préconditionneurs pour accélérer la résolution de grands systèmes linéaires creux par des méthodes itératives. On rencontre régulièrement ce type de systèmes dans des problèmes industriels ou scientifiques après discrétisation de modèles continus. Bien que de tels préconditionneurs exposent naturellement de bonnes propriétés de parallélisme sur les architectures distribuées, ils peuvent s’avérer être peu performants numériquement pour des décompositions complexes ou des problèmes physiques multi-échelles. On peut pallier ces défauts de robustesse en calculant de façon concurrente des problèmes locaux creux ou denses aux valeurs propres généralisées. D’aucuns peuvent alors identifier des modes qui perturbent la convergence des méthodes itératives sous-jacentes a priori. En utilisant ces modes, il est alors possible de définir des opérateurs de projection qui utilisent un problème dit grossier. L’utilisation de ces outils auxiliaires règle généralement les problèmes sus-cités, mais tend à diminuer les performances algorithmiques des préconditionneurs. Dans ce manuscrit, on montre en trois points quela nouvelle construction développée est performante : 1) grâce à des essais numériques à très grande échelle sur Curie—un supercalculateur européen, puis en le comparant à des solveurs de pointe 2) multi-grilles et 3) directs. / This thesis introduces a unified framework for various domain decomposition methods:those with overlap, so-called Schwarz methods, and those based on Schur complements,so-called substructuring methods. It is then possible to switch with a high-level of abstractionbetween methods and to build different preconditioners to accelerate the iterativesolution of large sparse linear systems. Such systems are frequently encountered in industrialor scientific problems after discretization of continuous models. Even though thesepreconditioners naturally exhibit good parallelism properties on distributed architectures,they can prove inadequate numerical performance for complex decompositions or multiscalephysics. This lack of robustness may be alleviated by concurrently solving sparse ordense local generalized eigenvalue problems, thus identifying modes that hinder the convergenceof the underlying iterative methods a priori. Using these modes, it is then possibleto define projection operators based on what is usually referred to as a coarse solver. Theseauxiliary tools tend to solve the aforementioned issues, but typically decrease the parallelefficiency of the preconditioners. In this dissertation, it is shown in three points thatthe newly developed construction is efficient: 1) by performing large-scale numerical experimentson Curie—a European supercomputer, and by comparing it with state of the art2) multigrid and 3) direct solvers.
578

Supergravities in Superspace / Supergravités en Superespace

Souères, Bertrand 17 September 2018 (has links)
Les corrections d’ordre supérieur en dérivées applicables à la théorie de supergravité à onze dimensions constituent un puissant outil pour étudier la structure miscroscopique de la théorie M. Plus partculièrement, l’invariant supersymétrique à l’ordre huit en en dérivées est nécessaire à la cohérence quantique de la théorie, mais il n’en existe à ce jour aucune expression complète. Dans cette thèse, après une introduction formelle aux théories de supergravité, nous présentons une technique appelée principe d’action (en superespace), dont le but est de générer le superinvariant complet associé au terme de Chern-Simons d’ordre huit. Bien que ce résultat ne soit pas encore atteint, nous en déterminons certaines caratérisiques, et ouvrons la voie à une résolution systématiques des étapes de calcul à venir. Dans le chapitre suivant, nous présentons les principales fonctionnalités du programme informatique crée pour gérer les imposants calculs liés au principe d’action. Ce programme est particulièrement adapté au traitement des matrices gamma, des tenseurs et des spineurs tels qu’ils surviennent en superespace. Enfin, à l’aide de ce programme, nous abordons un autre sujet calculatoire : la condensation fermionique en supergravité IIA massive. En utilisant la formulation en superespace des supergravités IIA, nous dérivons les termes de l’action quartiques en fermions, puis en imposant une valeur moyenne dans le vide non-nulle, nous montrons qu’il est possible de construire une solution de géométrie de Sitter dans deux cas simples / High order derivative terms in eleven dimensional supergravity are a powerful tool to probe the microscopic structure of M-theory. In particular, the superinvariant at order eight in number of derivatives is required for quantum consistency, but has not been completely constructed to this day. In this thesis, after a formal introduction to supergravity, we focus on a technique called the actions principle, in superspace, with the aim of generating the full superinvariant associated to the Chern-Simons term at order eight. Although we do not construct the superinvariant, we determine some of its characteristics, and pave the way for a systematic treatment of the computations leading to the correction. Then we present the main features of the computer program we built for dealing with the computations encountered in the action principle. It is specifically designed to deal with gamma matrices, tensors and spinors as they appear in superspace. Finally, with the help of this program, we tackle another computationally intensive subject : the fermionic condensation in IIA massive superspace. We use the superspace formulations of IIA supergravitites to find the quartic fermion term of the action, and by imposing a non-vanishing vacuum expectation value for this term, we realize a de Sitter solution in two simple cases
579

Numerical modeling of fluid-structure interaction in bio-inspired propulsion

Engels, Thomas 10 December 2015 (has links)
Les animaux volants et flottants ont développé des façons efficaces de produire l'écoulement de fluide qui génère les forces désirées pour leur locomotion. Cette thèse est placée dans ce contexte interdisciplinaire et utilise des simulations numériques pour étudier ces problèmes d'interaction fluides-structure, et les applique au vol des insectes et à la nage des poissons. Basée sur les travaux existants sur les obstacles mobiles rigides, une méthode numérique a été développée, permettant également la simulation des obstacles déformables et fournissant une polyvalence et précision accrues dans le cas des obstacles rigides. Nous appliquons cette méthode d'abord aux insectes avec des ailes rigides, où le corps et d'autres détails, tels que les pattes et les antennes, peuvent être inclus. Après la présentation de tests de validation détaillée, nous procédons à l'étude d'un modèle de bourdon dans un écoulement turbulent pleinement développé. Nos simulations montrent que les perturbations turbulentes affectent les insectes volants d'une manière différente de celle des avions aux ailes fixées et conçues par l'humain. Dans le cas de ces derniers, des perturbations en amont peuvent déclencher des transitions dans la couche limite, tandis que les premiers ne présentent pas de changements systématiques dans les forces aérodynamiques. Nous concluons que les insectes se trouvent plutôt confrontés à des problèmes de contrôle dans un environnement turbulent qu'à une détérioration de la production de force. Lors de l‘étape suivante, nous concevons un modèle solide, basé sur une équation de barre monodimensionnelle, et nous passons à la simulation des systèmes couplés fluide–structure. / Flying and swimming animals have developed efficient ways to produce the fluid flow that generates the desired forces for their locomotion. These bio-inspired problems couple fluid dynamics and solid mechanics with complex geometries and kinematics. The present thesis is placed in this interdisciplinary context and uses numerical simulations to study these fluid--structure interaction problems with applications in insect flight and swimming fish. Based on existing work on rigid moving obstacles, using an efficient Fourier discretization, a numerical method has been developed, which allows the simulation of flexible, deforming obstacles as well, and provides enhanced versatility and accuracy in the case of rigid obstacles. The method relies on the volume penalization method and the fluid discretization is still based on a Fourier discretization. We first apply this method to insects with rigid wings, where the body and other details, such as the legs and antennae, can be included. After presenting detailed validation tests, we proceed to studying a bumblebee model in fully developed turbulent flow. Our simulations show that turbulent perturbations affect flapping insects in a different way than human-designed fixed-wing aircrafts. While in the latter, upstream perturbations can cause transitions in the boundary layer, the former do not present systematical changes in aerodynamic forces. We conclude that insects rather face control problems in a turbulent environment than a deterioration in force production. In the next step, we design a solid model, based on a one--dimensional beam equation, and simulate coupled fluid--solid systems.
580

Contributions à l'amélioration de l'extensibilité de simulations parallèles de plasmas turbulents / Towards highly scalable parallel simulations for turbulent plasma physics

Rozar, Fabien 05 November 2015 (has links)
Les besoins en énergie dans le monde sont croissants alors que les ressources nécessaires pour la production d'énergie fossile s'épuisent d'année en année. Un des moyens alternatifs pour produire de l'énergie est la fusion nucléaire par confinement magnétique. La maîtrise de cette réaction est un défi et constitue un domaine actif de recherche. Pour améliorer notre connaissance des phénomènes qui interviennent lors de la réaction de fusion, deux approches sont mises en oeuvre : l'expérience et la simulation. Les expérience réalisées grâce aux Tokamaks permettent de prendre des mesures. Ceci nécessite l'utilisation des technologiques les plus avancées. Actuellement, ces mesures ne permettent pas d'accéder à toutes échelles de temps et d'espace des phénomènes physiques. La simulation numérique permet d'explorer ces échelles encore inaccessibles par l'expérience. Les ressources matérielles qui permettent d'effectuer des simulations réalistes sont conséquentes. L'usage du calcul haute performance (High Performance Computing HPC) est nécessaire pour avoir accès à ces simulations. Ceci se traduit par l'exploitation de grandes machines de calcul aussi appelées supercalculateurs. Les travaux réalisés dans cette thèse portent sur l'optimisation de l'application Gysela qui est un code de simulation de turbulence de plasma. L'optimisation d'un code de calcul scientifique vise classiquement l'un des trois points suivants : (i ) la simulation de plus grand domaine de calcul, (ii ) la réduction du temps de calcul et (iii ) l'amélioration de la précision des calculs. La première partie de ce manuscrit présente les contributions concernant la simulation de plus grand domaine. Comme beaucoup de codes de simulation, l'amélioration de la précision de la simulation est souvent synonyme de raffinement du maillage. Plus un maillage est fin, plus la consommation mémoire est grande. De plus, durant ces dernières années, les supercalculateurs ont eu tendance à disposer de moins en moins de mémoire par coeur de calcul. Pour ces raisons, nous avons développé une bibliothèque, la libMTM (Modeling and Tracing Memory), dédiée à l'étude précise de la consommation mémoire d'applications parallèles. Les outils de la libMTM ont permis de réduire la consommation mémoire de Gysela et d'étudier sa scalabilité. À l'heure actuelle, nous ne connaissons pas d'autre outil qui propose de fonctionnalités équivalentes permettant une étude précise de la scalabilité mémoire. La deuxième partie de ce manuscrit présente les travaux concernant l'optimisation du temps d'exécution et l'amélioration de la précision de l'opérateur de gyromoyenne. Cet opérateur est fondamental dans le modèle gyromagnétique qui est utilisé par l'application Gysela. L'amélioration de la précision vient d'un changement de la méthode de calcul : un schéma basé sur une interpolation de type Hermite vient remplacer l'approximation de Padé. Il s'avère que cette nouvelle version de l'opérateur est plus précise mais aussi plus coûteuse en terme de temps de calcul que l'opérateur existant. Afin que les temps de simulation restent raisonnables, différentes optimisations ont été réalisées sur la nouvelle méthode de calcul pour la rendre très compétitive. Nous avons aussi développé une version parallélisée en MPI du nouvel opérateur de gyromoyenne. La bonne scalabilité de cet opérateur de gyromoyenne permettra, à terme, de réduire des coûts en communication qui sont pénalisants dans une application parallèle comme Gysela. / Energy needs around the world still increase despite the resources needed to produce fossil energy drain off year after year. An alternative way to produce energy is by nuclear fusion through magnetic confinement. Mastering this reaction is a challenge and represents an active field of the current research. In order to improve our understanding of the phenomena which occur during a fusion reaction, experiment and simulation are both put to use. The performed experiments, thanks to Tokamaks, allow some experimental reading. The process of experimental measurements is of great complexity and requires the use of the most advanced available technologies. Currently, these measurements do not give access to all scales of time and space of physical phenomenon. Numerical simulation permits the exploration of these scales which are still unreachable through experiment. An extreme computing power is mandatory to perform realistic simulations. The use of High Performance Computing (HPC) is necessary to access simulation of realistic cases. This requirement means the use of large computers, also known as supercomputers. The works realized through this thesis focuses on the optimization of the Gysela code which simulates a plasma turbulence. Optimization of a scientific application concerns mainly one of the three following points : (i ) the simulation of larger meshes, (ii ) the reduction of computing time and (iii ) the enhancement of the computation accuracy. The first part of this manuscript presents the contributions relative to simulation of larger mesh. Alike many simulation codes, getting more realistic simulations is often analogous to refine the meshes. The finer the mesh the larger the memory consumption. Moreover, during these last few years, the supercomputers had trend to provide less and less memory per computer core. For these reasons, we have developed a library, the libMTM (Modeling and Tracing Memory), dedicated to study precisely the memory consumption of parallel softwares. The libMTM tools allowed us to reduce the memory consumption of Gysela and to study its scalability. As far as we know, there is no other tool which provides equivalent features which allow the memoryscalability study. The second part of the manuscript presents the works relative to the optimization of the computation time and the improvement of accuracy of the gyroaverage operator. This operator represents a corner stone of the gyrokinetic model which is used by the Gysela application. The improvement of accuracy emanates from a change in the computing method : a scheme based on a 2D Hermite interpolation substitutes the Padé approximation. Although the new version of the gyroaverage operator is more accurate, it is also more expensive in computation time than the former one. In order to keep the simulation in reasonable time, diferent optimizations have been performed on the new computing method to get it competitive. Finally, we have developed a MPI parallelized version of the new gyroaverage operator. The good scalability of this new gyroaverage computer will allow, eventually, a reduction of MPI communication costs which are penalizing in Gysela.

Page generated in 0.0345 seconds