• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 10
  • 6
  • 5
  • 1
  • 1
  • Tagged with
  • 47
  • 47
  • 18
  • 12
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

A host-parasite multilevel interacting process and continuous approximations

Méléard, Sylvie, Roelly, Sylvie January 2011 (has links)
We are interested in modeling some two-level population dynamics, resulting from the interplay of ecological interactions and phenotypic variation of individuals (or hosts) and the evolution of cells (or parasites) of two types living in these individuals. The ecological parameters of the individual dynamics depend on the number of cells of each type contained by the individual and the cell dynamics depends on the trait of the invaded individual. Our models are rooted in the microscopic description of a random (discrete) population of individuals characterized by one or several adaptive traits and cells characterized by their type. The population is modeled as a stochastic point process whose generator captures the probabilistic dynamics over continuous time of birth, mutation and death for individuals and birth and death for cells. The interaction between individuals (resp. between cells) is described by a competition between individual traits (resp. between cell types). We look for tractable large population approximations. By combining various scalings on population size, birth and death rates and mutation step, the single microscopic model is shown to lead to contrasting nonlinear macroscopic limits of different nature: deterministic approximations, in the form of ordinary, integro- or partial differential equations, or probabilistic ones, like stochastic partial differential equations or superprocesses. The study of the long time behavior of these processes seems very hard and we only develop some simple cases enlightening the difficulties involved.
12

Development of a Multi-body Statistical Shape Model of the Wrist

Semechko, Anton 21 December 2011 (has links)
With continually growing availability of high performance computing resources, the finite element methods (FEM) are becoming increasingly more efficient and practical research tools. In the domain of computational biomechanics, FEMs have been successfully applied in investigation of biomedical problems that include impact and fracture mechanics of bone, load transmission through the joints, feasibility of joint replacements, and many others. The present research study was concerned with the development of a detailed, anatomically accurate, finite element model of the human hand and wrist. As a first step in this direction, we used a publically available database of wrist bone anatomy and carpal kinematics to construct a multi-body statistical shape model (SSM) of the wrist. The resulting model provides an efficient parameterization of anatomical variations of the entire training set and can thus overcome the major shortcoming of conventional biomechanical models associated with limited generalization ability. The main contributions of this work are: 1) A robust method for constructing multi-body SSM of the wrist from surface meshes. 2) A novel technique for resampling closed genus-0 meshes to produce high quality triangulations suitable for finite element simulations. Additionally, all techniques developed in the course of this study could be directly applied to create an equivalent model of the tarsus.
13

Visualisation interactive de simulations à grand nombre d'atomes en physique des matériaux / Interactive visualization of material physics simulations with large number of atoms

Latapie, Simon 07 April 2009 (has links)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d’unités de calcul. Les codes de calcul, en s’adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d’un système étudié est aujourd’hui de l’ordre de quelques millions à quelques centaines de millions, ce qui pose d’importants problèmes d’exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d’information de façon interactive. Le but de cette thèse est de concevoir et d’implémenter une solution de manipulation de données composées d’un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d’atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d’image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l’interactivité, c’est-à-dire rendre le système plus apte à réagir avec l’utilisateur, afin d’effectuer des phases d’exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : – à l’interaction, par un système permettant une exploration simple et efficace d’une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. – à l’interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d’un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d’occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données. / The need for more computing power for scientific applications leads supercomputer manufacturers to rely on more and more parallel architectures, such as cluster or MPP systems, increasing the number of processing units. The correlative adjustment of computing software - simulation codes - to massive parallelism leads to larger and larger datasets. More specifically, in molecular dynamics simulations applied to material physics, particle sets are typically composed of millions to hundreds of millions of particles, which raises important postprocessing issues. Most current visualization solutions do not scale up to interactively handle such an amount of information. The goal of this thesis is to design and implement a post-processing solution which is able to handle .dense. sets with a very large number of particles (for example, a molecular dynamics simulation result with several millions of atoms). This solution will have to be adaptive enough to run either on a desktop environment, or on a simple collaborative and immersive configuration, such as a tiled display, possibly with some virtual reality devices (such as stereo displays and 3D interaction peripherals). Moreover, this solution will have to maximize the interactivity, i.e. to increase the reactivity of the system against the user commands, to improve data exploration stages. We propose a solution optimized for dense particle systems visualization, improving both interaction and interactivity : – regarding interaction, a new simple and efficient way of exploring a scientific simulation is proposed. We developed and tested .FlowMenu3D., a 3D extension of the .FlowMenu. concept, an octagonal menu previously designed for 2D environments. – regarding interactivity, we propose an optimized architecture for dense particle systems rendering. The system relies on VTK visualization framework and a parallel hydrid sort-first/sort-last renderer. The existing Ice-T component is augmented with spatial data partitioning as well as statistical (Monte Carlo) occlusion mechanisms. GPU shaders eventually improve the performance and quality of rendering, using spheres as basic primitives.
14

A Positon Based Approach to Ragdoll Simulation

Pascucci, Fiammetta January 2007 (has links)
Create the realistic motion of a character is a very complicated work. This thesis aims to create interactive animation for characters in three dimensions using position based approach. Our character is pictured from ragdoll, which is a structure of system particles where all particles are linked by equidistance constraints. The goal of this thesis is observed the fall in the space of our ragdoll after creating all constraints, as structure, contact and environment constraints. The structure constraint represents all joint constraints which have one, two or three Degree of Freedom (DOF). The contact constraints are represented by collisions between our ragdoll and other objects in the space. Finally, the environment constraints are represented by means of the wall constraint. The achieved results allow to have a realist fall of our ragdoll in the space.
15

Simulace tekutin a plynů / Fluid Simulation

Štambachr, Jakub January 2011 (has links)
This diploma thesis addresses the problem of liquid and gas simulation, it particularly deals with computer simulation of flow of viscous newtonian liquids with a free surface. A main goal of this work is to create an efficient simulation model, utilizing the benefits of current GPU parallel architecture for general-purpose computing. I chose to implement Smoothed Particle Hydrodynamics, a lagrangian particle-based method. A significant portion of this thesis consists of speed analysis of the implemented algorithm, comparison with other authors' achievements in the field and a demonstration of benefits brought by GPU involvement in the computation. As an output of the thesis I present an interactive computer program that allows for real-time simulation (and visualization) of water-like fluids.
16

Absorptionsphasenubergang für Irrfahrten mit Aktivierung und stochastische Zelluläre Automaten: Absorptionsphasenubergang für Irrfahrten mit Aktivierung undstochastische Zelluläre Automaten

Taggi, Lorenzo 15 September 2015 (has links)
This thesis studies two Markov processes describing the evolution of a system of many interacting random components. These processes undergo an absorbing-state phase transition, i.e., as one variates the parameter values, the process exhibits a transition from a convergence regime to one of the absorbing-states to an active regime. In Chapter 2 we study Activated Random Walk, which is an interacting particle system where the particles can be of two types and their number is conserved. Firstly, we provide a new lower bound for the critical density on Z as a function of the jump distribution and of the sleeping rate and we prove that the critical density is not a constant function of the jump distribution. Secondly, we prove that on Zd in the case of biased jump distribution the critical density is strictly less than one, provided that the sleeping rate is small enough. This answers a question that has been asked by Dickman, Rolla, Sidoravicius [9, 28] in the case of biased jump distribution. Our results have been presented in [33]. In Chapter 3 we study a class of probabilistic cellular automata which are related by a natural coupling to a special type of oriented percolation model. Firstly, we consider the process on a finite torus of size n, which is ergodic for any parameter value. By employing dynamic-renormalization techniques, we prove that the average absorption time grows exponentially (resp. logarithmically) with n when the model on Z is in the active (resp. absorbing) regime. This answers a question that has been asked by Toom [37]. Secondly, we study how the neighbourhood of the model affects the critical probability for the process on Z. We provide a lower bound for the critical probability as a function of the neighbourhood and we show that our estimates are sharp by comparing them with our numerical estimates. Our results have been presented in [34, 35].
17

Comparison Between Particle Rendering Techniques in DirectX 11

Johansson, Simon, Andersson, Robin January 2017 (has links)
Comparison between GPU and CPU particle systems.Computer games have used particle systems for visualeffects such as weather, smoke, fog, etc and it’s relatively low costto implement. There are a mixture of different techniques usedto render particle systems, usually CPU heavy implementationsor a GPU based one.In this study we developed two rendering techniques for aparticle system, instancing and stream-out, and compare theirperformance. As almost as expected we saw that the stream-outtechnique that is GPU based outperformed instancing when wetested using none intractable particle systems. We have furthereddiscussed both advantages and disadvantages in other scenarios.
18

Contribution à l'étude probabiliste et numérique d'équations homogènes issues de la physique statistique : coagulation-fragmentation / Contribution to the probabilistic and numerical study of homogeneous equations issued from statistical physics : coagulation-fragmentation

Cepeda Chiluisa, Eduardo 03 June 2013 (has links)
Cette thèse est consacrée à l'étude de systèmes subissant des coagulations et fragmentations successives. Dans le cas déterministe, on travaille avec des solutions mesures de l'équation de coagulation - multifragmentation. On étudie aussi la contrepartie stochastique de ces systèmes : les processus de coalescence - multifragmentation qui sont des processus de Markov à sauts. Dans un premier temps, on étudie le phénomène de coagulation seul. D'un côté, l'équation de Smoluchowski est une équation intégro-différentielle déterministe. D'un autre côté, on considère le processus stochastique connu sous le nom de Marcus-Lushnikov qui peut être regardé comme une approximation de la solution de l'équation de Smoluchowski. Nous étudions la vitesse de convergence par rapport à la distance de type Wassertein $d_{lambda}$ entre les mesures lorsque le nombre de particules tend vers l'infini. Notre étude est basée sur l'homogénéité du noyau de coagulation $K$.On complémente les calculs pour obtenir un résultat qui peut être interprété comme une généralisation de la Loi des Grands Nombres. Des conditions générales et suffisantes sur des mesures discrètes et continues $mu_0$ sont données pour qu'une suite de mesures $mu_0^n$ à support compact existe. On a donc trouvé un taux de convergence satisfaisant du processus Marcus-Lushnikov vers la solution de l'équation de Smoluchowski par rapport à la distance de type Wassertein $d_{lambda}$ égale à $1/sqrt{n}$.Dans un deuxième temps on présente les résultats des simulations ayant pour objectif de vérifier numériquement le taux de convergence déduit précédemment pour les noyaux de coagulation qui y sont étudiés. Finalement, on considère un modèle prenant en compte aussi un phénomène de fragmentation où un nombre infini de fragments à chaque dislocation est permis. Dans la première partie on considère le cas déterministe, dans la deuxième partie on étudie un processus stochastique qui peut être interprété comme la version macroscopique de ce modèle. D'abord, on considère l'équation intégro-partielle différentielle de coagulation - multifragmentation qui décrit l'évolution en temps de la concentration $mu_t(x)$ de particules de masse $x>0$. Le noyau de coagulation $K$ est supposé satisfaire une propriété de $lambda$-homogénéité pour $lambdain(0,1]$, le noyau de fragmentation $F$ est supposé borné et la mesure $beta$ sur l'ensemble de ratios est conservative. Lorsque le moment d'ordre $lambda$ de la condition initial $mu_0$ est fini, on est capable de montrer existence et unicité d'une solution mesure de l'équation de coagulation - multifragmentation. Ensuite, on considère la version stochastique de cette équation, le processus de coalescence - fragmentation est un processus de Markov càdlàg avec espace d'états l'ensemble de suites ordonnées et est défini par un générateur infinitésimal donné. On a utilisé une représentation Poissonienne de ce processus et la distance $delta_{lambda}$ entre deux processus. Grâce à cette méthode on est capable de construire une version finie de ce processus et de coupler deux processus démarrant d'états initiaux différents. Lorsque l'état initial possède un moment d'ordre $lambda$ fini, on prouve existence et unicité de ces processus comme la limite de suites de processus finis. Tout comme dans le cas déterministe, le noyau de coagulation $K$ est supposé satisfaire une propriété d'homogénéité. Les hypothèses concernant la mesure $beta$ sont exactement les mêmes. D'un autre côté, le noyau de fragmentation $F$ est supposé borné sur tout compact dans $(0,infty)$. Ce résultat est meilleur que celui du cas déterministe, cette amélioration est due à la propriété intrinsèque de masse totale non-explosive que possède un système avec un moment fini d'ordre $lambda$ / This thesis is devoted to the study of systems of particles undergoing successive coagulations and fragmentations. In the deterministic case, we deal with measure-valued solutions of the coagulation - multifragmentation equation. We also study, on the other hand, its stochastic counterpart: coalescence - multifragmentation Markov processes. A first chapter is devoted to the presentation of the mathematical tools used in this thesis and to the discussion on some topics treated in the following chapters. n Chapter 1 we only take into account coagulation phenomena. We consider the Smoluchowski equation (which is deterministic) and the Marcus-Lushnikov process (the stochastic version) which can be seen as an approximation of the Smoluchowski equation. We derive a satisfying rate of convergence of the Marcus-Lushnikov process toward the solution to Smoluchowski's coagulation equation. The result applies to a class of homogeneous-like coagulation kernels with homogeneity degree ranging in $(-infty,1]$. It relies on the use of the Wasserstein-type distance $d_{lambda}$, which has shown to be particularly well-adapted to coalescence phenomena. It was introduced and used in preceding works. In Chapter 2 we perform some simulations in order to confirm numerically the rate of convergence deduced in Chapter ref{Chapter1} for the kernels studied in this chapter.medskip Finally, in Chapter 3 we add a fragmentation phenomena and consider a coagulation multiple-fragmentation equation, which describes the concentration $c_t(x)$ of particles of mass $x in (0,infty)$ at the instant $t geq 0$. We study the existence and uniqueness of measured-valued solutions to this equation for homogeneous-like kernels of homogeneity parameter $lambda in (0,1]$ and bounded fragmentation kernels, although a possibly infinite number of fragments is considered. We also study a stochastic counterpart of this equation where a similar result is shown. We prove existence of such a process for a larger set of fragmentation kernels, namely we relax the boundedness hypothesis. In both cases, the initial state has a finite $lambda$-moment
19

Não monotonicidade do parâmetro crítico no modelo dos sapos / Non monotonicity of the critical parameter in the Frog Model

Leichsenring, Alexandre Ribeiro 18 February 2003 (has links)
Estudamos um modelo de passeios aleatórios simples em grafos, conhecido como modelo dos sapos. Esse modelo pode ser descrito de maneira geral da seguinte forma: existem partículas ativas e partículas desativadas num grafo G. Cada partícula ativa desempenha um passeio aleatório simples a tempo discreto e a cada momento ela pode morrer com probabilidade 1-p. Quando uma partícula ativa entra em contato com uma partícula desativada, esta é ativada e também passa a realizar, de maneira independente, um passeio aleatório pelo grafo. Apresentamos limites superior e inferior para o parâmetro crítico de sobrevivência do modelo dos sapos na árvore, e demonstramos que este parâmetro crítico não é uma função monótona do grafo em que está definido. / We study a system of simple random walks on graphs, known as frog model. This model can be described generally speaking as follows: there are active and sleeping particles living on some graph G. Each particle performs a simple random walk with discrete time and at each moment it may disappear with probability 1 - p. When an active particle hits a sleeping particle, the latter becomes active and starts to perform, independently, a simple random walk on the graph. We present lower and upper bounds for the surviving critical parameter on the tree, and we show that this parameter is not a monotonic function of the graph it is defined on.
20

Visualisation interactive de simulations à grand nombre d'atomes en Physique des Matériaux

Latapie, Simon 07 April 2009 (has links) (PDF)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d'unités de calcul. Les codes de calcul, en s'adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d'un système étudié est aujourd'hui de l'ordre de quelques millions à quelques centaines de millions, ce qui pose d'importants problèmes d'exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d'information de façon interactive. Le but de cette thèse est de concevoir et d'implémenter une solution de manipulation de données composées d'un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d'atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d'image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l'interactivité, c'est-à-dire rendre le système plus apte à réagir avec l'utilisateur, afin d'effectuer des phases d'exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : - à l'interaction, par un système permettant une exploration simple et efficace d'une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. - à l'interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d'un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d'occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données.

Page generated in 0.0496 seconds