• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 87
  • 33
  • 14
  • 7
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 328
  • 328
  • 105
  • 38
  • 36
  • 35
  • 34
  • 34
  • 33
  • 31
  • 30
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

On numerical resilience in linear algebra / Conception d'algorithmes numériques pour la résilience en algèbre linéaire

Zounon, Mawussi 01 April 2015 (has links)
Comme la puissance de calcul des systèmes de calcul haute performance continue de croître, en utilisant un grand nombre de cœurs CPU ou d’unités de calcul spécialisées, les applications hautes performances destinées à la résolution des problèmes de très grande échelle sont de plus en plus sujettes à des pannes. En conséquence, la communauté de calcul haute performance a proposé de nombreuses contributions pour concevoir des applications tolérantes aux pannes. Cette étude porte sur une nouvelle classe d’algorithmes numériques de tolérance aux pannes au niveau de l’application qui ne nécessite pas de ressources supplémentaires, à savoir, des unités de calcul ou du temps de calcul additionnel, en l’absence de pannes. En supposant qu’un mécanisme distinct assure la détection des pannes, nous proposons des algorithmes numériques pour extraire des informations pertinentes à partir des données disponibles après une pannes. Après l’extraction de données, les données critiques manquantes sont régénérées grâce à des stratégies d’interpolation pour constituer des informations pertinentes pour redémarrer numériquement l’algorithme. Nous avons conçu ces méthodes appelées techniques d’Interpolation-restart pour des problèmes d’algèbre linéaire numérique tels que la résolution de systèmes linéaires ou des problèmes aux valeurs propres qui sont indispensables dans de nombreux noyaux scientifiques et applications d’ingénierie. La résolution de ces problèmes est souvent la partie dominante; en termes de temps de calcul, des applications scientifiques. Dans le cadre solveurs linéaires du sous-espace de Krylov, les entrées perdues de l’itération sont interpolées en utilisant les entrées disponibles sur les nœuds encore disponibles pour définir une nouvelle estimation de la solution initiale avant de redémarrer la méthode de Krylov. En particulier, nous considérons deux politiques d’interpolation qui préservent les propriétés numériques clés de solveurs linéaires bien connus, à savoir la décroissance monotone de la norme-A de l’erreur du gradient conjugué ou la décroissance monotone de la norme résiduelle de GMRES. Nous avons évalué l’impact du taux de pannes et l’impact de la quantité de données perdues sur la robustesse des stratégies de résilience conçues. Les expériences ont montré que nos stratégies numériques sont robustes même en présence de grandes fréquences de pannes, et de perte de grand volume de données. Dans le but de concevoir des solveurs résilients de résolution de problèmes aux valeurs propres, nous avons modifié les stratégies d’interpolation conçues pour les systèmes linéaires. Nous avons revisité les méthodes itératives de l’état de l’art pour la résolution des problèmes de valeurs propres creux à la lumière des stratégies d’Interpolation-restart. Pour chaque méthode considérée, nous avons adapté les stratégies d’Interpolation-restart pour régénérer autant d’informations spectrale que possible. Afin d’évaluer la performance de nos stratégies numériques, nous avons considéré un solveur parallèle hybride (direct/itérative) pleinement fonctionnel nommé MaPHyS pour la résolution des systèmes linéaires creux, et nous proposons des solutions numériques pour concevoir une version tolérante aux pannes du solveur. Le solveur étant hybride, nous nous concentrons dans cette étude sur l’étape de résolution itérative, qui est souvent l’étape dominante dans la pratique. Les solutions numériques proposées comportent deux volets. A chaque fois que cela est possible, nous exploitons la redondance de données entre les processus du solveur pour effectuer une régénération exacte des données en faisant des copies astucieuses dans les processus. D’autre part, les données perdues qui ne sont plus disponibles sur aucun processus sont régénérées grâce à un mécanisme d’interpolation. / As the computational power of high performance computing (HPC) systems continues to increase by using huge number of cores or specialized processing units, HPC applications are increasingly prone to faults. This study covers a new class of numerical fault tolerance algorithms at application level that does not require extra resources, i.e., computational unit or computing time, when no fault occurs. Assuming that a separate mechanism ensures fault detection, we propose numerical algorithms to extract relevant information from available data after a fault. After data extraction, well chosen part of missing data is regenerated through interpolation strategies to constitute meaningful inputs to numerically restart the algorithm. We have designed these methods called Interpolation-restart techniques for numerical linear algebra problems such as the solution of linear systems or eigen-problems that are the inner most numerical kernels in many scientific and engineering applications and also often ones of the most time consuming parts. In the framework of Krylov subspace linear solvers the lost entries of the iterate are interpolated using the available entries on the still alive nodes to define a new initial guess before restarting the Krylov method. In particular, we consider two interpolation policies that preserve key numerical properties of well-known linear solvers, namely the monotony decrease of the A-norm of the error of the conjugate gradient or the residual norm decrease of GMRES. We assess the impact of the fault rate and the amount of lost data on the robustness of the resulting linear solvers.For eigensolvers, we revisited state-of-the-art methods for solving large sparse eigenvalue problems namely the Arnoldi methods, subspace iteration methods and the Jacobi-Davidson method, in the light of Interpolation-restart strategies. For each considered eigensolver, we adapted the Interpolation-restart strategies to regenerate as much spectral information as possible. Through intensive experiments, we illustrate the qualitative numerical behavior of the resulting schemes when the number of faults and the amount of lost data are varied; and we demonstrate that they exhibit a numerical robustness close to that of fault-free calculations. In order to assess the efficiency of our numerical strategies, we have consideredan actual fully-featured parallel sparse hybrid (direct/iterative) linear solver, MaPHyS, and we proposed numerical remedies to design a resilient version of the solver. The solver being hybrid, we focus in this study on the iterative solution step, which is often the dominant step in practice. The numerical remedies we propose are twofold. Whenever possible, we exploit the natural data redundancy between processes from the solver toperform an exact recovery through clever copies over processes. Otherwise, data that has been lost and is not available anymore on any process is recovered through Interpolationrestart strategies. These numerical remedies have been implemented in the MaPHyS parallel solver so that we can assess their efficiency on a large number of processing units (up to 12; 288 CPU cores) for solving large-scale real-life problems.
322

Analyse mathématique de modèles de trafic routier congestionné / Mathematical analysis of models of congested road traffic

Hatchi, Roméo 02 December 2015 (has links)
Cette thèse est dédiée à l'étude mathématique de quelques modèles de trafic routier congestionné. La notion essentielle est l'équilibre de Wardrop. Elle poursuit des travaux de Carlier et Santambrogio avec des coauteurs. Baillon et Carlier ont étudié le cas de grilles cartésiennes dans $\RR^2$ de plus en plus denses, dans le cadre de la théorie de $\Gamma$-convergence. Trouver l'équilibre de Wardrop revient à résoudre des problèmes de minimisation convexe. Dans le chapitre 2, nous regardons ce qui se passe dans le cas de réseaux généraux, de plus en plus denses, dans $\RR^d$. Des difficultés nouvelles surgissent par rapport au cas initial de réseaux cartésiens et pour les contourner, nous introduisons la notion de courbes généralisées. Des hypothèses structurelles sur ces suites de réseaux discrets sont nécessaires pour s'assurer de la convergence. Cela fait alors apparaître des fonctions qui sont des sortes de distances de Finsler et qui rendent compte de l'anisotropie du réseau. Nous obtenons ainsi des résultats similaires à ceux du cas cartésien. Dans le chapitre 3, nous étudions le modèle continu et en particulier, les problèmes limites. Nous trouvons alors des conditions d'optimalité à travers une formulation duale qui peut être interprétée en termes d'équilibres continus de Wardrop. Cependant, nous travaillons avec des courbes généralisées et nous ne pouvons pas appliquer directement le théorème de Prokhorov, comme cela a été le cas dans \cite{baillon2012discrete, carlier2008optimal}. Pour pouvoir néanmoins l'utiliser, nous considérons une version relaxée du problème limite, avec des mesures d'Young. Dans le chapitre 4, nous nous concentrons sur le cas de long terme, c'est-à-dire, nous fixons uniquement les distributions d'offre et de demande. Comme montré dans \cite{brasco2013congested}, le problème de l'équilibre de Wardrop est équivalent à un problème à la Beckmann et il se réduit à résoudre une EDP elliptique, anisotropique et dégénérée. Nous utilisons la méthode de résolution numérique de Lagrangien augmenté présentée dans \cite{benamou2013augmented} pour proposer des exemples de simulation. Enfin, le chapitre 5 a pour objet l'étude de problèmes de Monge avec comme coût une distance de Finsler. Cela se reformule en des problèmes de flux minimal et une discrétisation de ces problèmes mène à un problème de point-selle. Nous le résolvons alors numériquement, encore grâce à un algorithme de Lagrangien augmenté. / This thesis is devoted to the mathematical analysis of some models of congested road traffic. The essential notion is the Wardrop equilibrium. It continues Carlier and Santambrogio's works with coauthors. With Baillon they studied the case of two-dimensional cartesian networks that become very dense in the framework of $\Gamma$-convergence theory. Finding Wardrop equilibria is equivalent to solve convex minimisation problems.In Chapter 2 we look at what happens in the case of general networks, increasingly dense. New difficulties appear with respect to the original case of cartesian networks. To deal with these difficulties we introduce the concept of generalized curves. Structural assumptions on these sequences of discrete networks are necessary to obtain convergence. Sorts of Finsler distance are used and keep track of anisotropy of the network. We then have similar results to those in the cartesian case.In Chapter 3 we study the continuous model and in particular the limit problems. Then we find optimality conditions through a duale formulation that can be interpreted in terms of continuous Wardrop equilibria. However we work with generalized curves and we cannot directly apply Prokhorov's theorem, as in \cite{baillon2012discrete, carlier2008optimal}. To use it we consider a relaxed version of the limit problem with Young's measures. In Chapter 4 we focus on the long-term case, that is, we fix only the distributions of supply and demand. As shown in \cite{brasco2013congested} the problem of Wardrop equilibria can be reformulated in a problem à la Beckmann and reduced to solve an elliptic anisotropic and degenerated PDE. We use the augmented Lagrangian scheme presented in \cite{benamou2013augmented} to show a few numerical simulation examples. Finally Chapter 5 is devoted to studying Monge problems with as cost a Finsler distance. It leads to minimal flow problems. Discretization of these problems is equivalent to a saddle-point problem. We then solve it numerically again by an augmented Lagrangian algorithm.
323

Studies on instability and optimal forcing of incompressible flows

Brynjell-Rahkola, Mattias January 2017 (has links)
This thesis considers the hydrodynamic instability and optimal forcing of a number of incompressible flow cases. In the first part, the instabilities of three problems that are of great interest in energy and aerospace applications are studied, namely a Blasius boundary layer subject to localized wall-suction, a Falkner–Skan–Cooke boundary layer with a localized surface roughness, and a pair of helical vortices. The two boundary layer flows are studied through spectral element simulations and eigenvalue computations, which enable their long-term behavior as well as the mechanisms causing transition to be determined. The emergence of transition in these cases is found to originate from a linear flow instability, but whereas the onset of this instability in the Blasius flow can be associated with a localized region in the vicinity of the suction orifice, the instability in the Falkner–Skan–Cooke flow involves the entire flow field. Due to this difference, the results of the eigenvalue analysis in the former case are found to be robust with respect to numerical parameters and domain size, whereas the results in the latter case exhibit an extreme sensitivity that prevents domain independent critical parameters from being determined. The instability of the two helices is primarily addressed through experiments and analytic theory. It is shown that the well known pairing instability of neighboring vortex filaments is responsible for transition, and careful measurements enable growth rates of the instabilities to be obtained that are in close agreement with theoretical predictions. Using the experimental baseflow data, a successful attempt is subsequently also made to reproduce this experiment numerically. In the second part of the thesis, a novel method for computing the optimal forcing of a dynamical system is developed. The method is based on an application of the inverse power method preconditioned by the Laplace preconditioner to the direct and adjoint resolvent operators. The method is analyzed for the Ginzburg–Landau equation and afterwards the Navier–Stokes equations, where it is implemented in the spectral element method and validated on the two-dimensional lid-driven cavity flow and the flow around a cylinder. / <p>QC 20171124</p>
324

Numerická analýza smršťování vybraných silikátových kompozitů / Numerical analysis of selected silicate based composites shrinkage

Drbušková, Magdaléna January 2014 (has links)
The thesis is divided into two main parts. In the first theoretical part is described the problems of shrinking including a comparison of Czech standard and Model Code 2010, Vol. 1. The second practical part of the master`s thesis is focused on the numerical analysis shrinkage primarily on the initial stage of this process. The experimentally obtained data are set approximations of the relative deformation using ShrCeC. Subsequently the numerical simulation of shrinkage of selected silicate specimens using a computer applications SpatiDist and FyDiK 2D. The real test specimens are modelled as two-component composite consisting of cement paste and aggregates. The result is a parametric study takes into account the influence of type and size of grain aggregate.
325

Modèle épidémiologique multigroupe pour la transmission de la COVID-19 dans une résidence pour personnes âgées

Ndiaye, Jean François 11 1900 (has links)
Dans ce mémoire, nous considérons un modèle épidémiologique multigroupe dans une population hétérogène, pour décrire la situation de l’épidémie de la COVID-19 dans une résidence pour personnes âgées. L’hétérogénéité liée ici à l’âge reflète une transmission élevée dûe à des interactions accrues, et un taux de mortalité plus élevé chez les personnes âgées. Du point de vue mathématique, nous obtenons un modèle SEIR multigroupe d’équations intégro-différentielles dans lequel nous considérons une distribution générale de la période infectieuse. Nous utilisons la méthode des fonctions de Lyapunov et une approche de la théorie des graphes pour déterminer le rôle du nombre de reproduction de base \(\mathcal{R}_0\) : l’état d’équilibre sans maladie est globalement asymptotiquement stable et l’épidémie s’éteint dans les deux groupes lorsque \(\mathcal{R}_0 \leq 1\), par contre elle persiste et l’état d’équilibre endémique est globalement asymptotiquement stable lorsque \(\mathcal{R}_0>1\). Les simulations numériques illustrent l’impact des stratégies de contrôle de la santé publique. / In this thesis, we consider a multiple group epidemiological model in a heterogeneous population to describe COVID-19 outbreaks in an elderly residential population. Age-based heterogeneity reflects higher transmission with enhanced interactions, and higher fatality rates in the elderly. Mathematically, we analyse a SEIR model in the form of a system of integro-differential equations with general distribution function for the infectious period. Lyapunov functions and graph-theoretical methods are employed to establish the role played by the basic reproduction ratio \(\mathcal{R}_0\) : global asymptotic stability of the disease-free equilibrium and no sustained outbreak when \(\mathcal{R}_0 \leq 1\), as opposed to persistent outbreak and globally asymptotic endemic equilibrium when \(\mathcal{R}_0>1\). Numerical simulations are presented to illustrate public health control strategies.
326

Collective Information Processing and Criticality, Evolution and Limited Attention.

Klamser, Pascal 23 August 2021 (has links)
Im ersten Teil analysiere ich die Selbstorganisation zur Kritikalität (hier ein Phasenübergang von Ordnung zu Unordnung) und untersuche, ob Evolution ein möglicher Organisationsmechanismus ist. Die Kernfrage ist, ob sich ein simulierter kohäsiver Schwarm, der versucht, einem Raubtier auszuweichen, durch Evolution selbst zum kritischen Punkt entwickelt, um das Ausweichen zu optimieren? Es stellt sich heraus, dass (i) die Gruppe den Jäger am besten am kritischen Punkt vermeidet, aber (ii) nicht durch einer verstärkten Reaktion, sondern durch strukturelle Veränderungen, (iii) das Gruppenoptimum ist evolutionär unstabiler aufgrund einer maximalen räumlichen Selbstsortierung der Individuen. Im zweiten Teil modelliere ich experimentell beobachtete Unterschiede im kollektiven Verhalten von Fischgruppen, die über mehrere Generationen verschiedenen Arten von größenabhängiger Selektion ausgesetzt waren. Diese Größenselektion soll Freizeitfischerei (kleine Fische werden freigelassen, große werden konsumiert) und die kommerzielle Fischerei mit großen Netzbreiten (kleine/junge Individuen können entkommen) nachahmen. Die zeigt sich, dass das Fangen großer Fische den Zusammenhalt und die Risikobereitschaft der Individuen reduziert. Beide Befunde lassen sich mechanistisch durch einen Aufmerksamkeits-Kompromiss zwischen Sozial- und Umweltinformationen erklären. Im letzten Teil der Arbeit quantifiziere ich die kollektive Informationsverarbeitung im Feld. Das Studiensystem ist eine an sulfidische Wasserbedingungen angepasste Fischart mit einem kollektiven Fluchtverhalten vor Vögeln (wiederholte kollektive Fluchttauchgängen). Die Fische sind etwa 2 Zentimeter groß, aber die kollektive Welle breitet sich über Meter in dichten Schwärmen an der Oberfläche aus. Es zeigt sich, dass die Wellengeschwindigkeit schwach mit der Polarisation zunimmt, bei einer optimalen Dichte am schnellsten ist und von ihrer Richtung relativ zur Schwarmorientierung abhängt. / In the first part, I focus on the self-organization to criticality (here an order-disorder phase transition) and investigate if evolution is a possible self-tuning mechanism. Does a simulated cohesive swarm that tries to avoid a pursuing predator self-tunes itself by evolution to the critical point to optimize avoidance? It turns out that (i) the best group avoidance is at criticality but (ii) not due to an enhanced response but because of structural changes (fundamentally linked to criticality), (iii) the group optimum is not an evolutionary stable state, in fact (iv) it is an evolutionary accelerator due to a maximal spatial self-sorting of individuals causing spatial selection. In the second part, I model experimentally observed differences in collective behavior of fish groups subject to multiple generation of different types of size-dependent selection. The real world analog to this experimental evolution is recreational fishery (small fish are released, large are consumed) and commercial fishing with large net widths (small/young individuals can escape). The results suggest that large harvesting reduces cohesion and risk taking of individuals. I show that both findings can be mechanistically explained based on an attention trade-off between social and environmental information. Furthermore, I numerically analyze how differently size-harvested groups perform in a natural predator and fishing scenario. In the last part of the thesis, I quantify the collective information processing in the field. The study system is a fish species adapted to sulfidic water conditions with a collective escape behavior from aerial predators which manifests in repeated collective escape dives. These fish measure about 2 centimeters, but the collective wave spreads across meters in dense shoals at the surface. I find that wave speed increases weakly with polarization, is fastest at an optimal density and depends on its direction relative to shoal orientation.
327

Mathematical modelling of virus RSV: qualitative properties, numerical solutions and validation for the case of the region of Valencia

Arenas Tawil, Abraham José 24 May 2010 (has links)
El objetivo de esta memoria se centra en primer lugar en la modelización del comportamiento de enfermedades estacionales mediante sistemas de ecuaciones diferenciales y en el estudio de las propiedades dinámicas tales como positividad, periocidad, estabilidad de las soluciones analíticas y la construcción de esquemas numéricos para las aproximaciones de las soluciones numéricas de sistemas de ecuaciones diferenciales de primer orden no lineales, los cuales modelan el comportamiento de enfermedades infecciosas estacionales tales como la transmisión del virus Respiratory Syncytial Virus (RSV). Se generalizan dos modelos matemáticos de enfermedades estacionales y se demuestran que tiene soluciones periódicas usando un Teorema de Coincidencia de Jean Mawhin. Para corroborar los resultados analíticos, se desarrollan esquemas numéricos usando las técnicas de diferencias finitas no estándar desarrolladas por Ronald Michens y el método de la transformada diferencial, los cuales permiten reproducir el comportamiento dinámico de las soluciones analíticas, tales como positividad y periocidad. Finalmente, las simulaciones numéricas se realizan usando los esquemas implementados y parámetros deducidos de datos clínicos De La Región de Valencia de personas infectadas con el virus RSV. Se confrontan con las que arrojan los métodos de Euler, Runge Kutta y la rutina de ODE45 de Matlab, verificándose mejores aproximaciones para tamaños de paso mayor a los que usan normalmente estos esquemas tradicionales. / Arenas Tawil, AJ. (2009). Mathematical modelling of virus RSV: qualitative properties, numerical solutions and validation for the case of the region of Valencia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8316
328

Study of organic matter decomposition under geological conditions from replica exchange molecular dynamics simulations / Etude de la décomposition de matière organique dans des conditions géologiques par simulations numériques de replica exchange molecular dynamics

Atmani, Léa 15 May 2017 (has links)
Pétrole et gaz proviennent de la décomposition de la matière organique dans la croûte terrestre. En s’enfouissant, les résidus organiques se décomposent en un solide poreux et carboné, appelé kérogène et en un fluide composé d’hydrocarbures et de petites molécules telles que de l’eau. Le processus de formation du kérogène n’est pas totalement élucidé et une modélisation aiderait à une meilleure compréhension à la fois de sa structure et de sa composition et serait utile à l’industrie pétrolière.Dans le présent travail, nous adoptons une approche thermodynamique ayant pour but, à l’aide de simulations numériques, de d’étudier la décomposition de précurseurs de kérogène d’un type donné –ici le type III- dans les conditions d’un réservoir géologique. La méthode dite de Replica Exchange Molecular Dynamics (REMD) est appliquée pour étudier la décomposition de cristaux de cellulose et de lignine. Le potentiel d’interaction ReaxFF et le code LAMMPS sont utilisés. La REMD est une façon de surmonter de larges barrières d’énergie libre, en améliorant l’échantillonnage de configurations d’une dynamique moléculaire conventionnelle à température constante, en utilisant des états générés à températures supérieures.En fin de simulation, les systèmes ont atteint un état d’équilibre entre deux phases : une phase riche en carbone, composée d’amas de macromolécules, que nous appelons « solide » et d’une phase riche en oxygène et en hydrogène, composée de petites molécules, que nous dénommons « fluide ». L’évolution des parties solides de nos systèmes coïncide avec celle d’échantillons naturels de kérogènes de type III. / In deep underground, organic residues decompose into a carbonaceous porous solid, called kerogen and a fluid usually composed of hydrocarbons and other small molecules such as water, carbon monoxide. The formation process of the kerogen remains poorly understood. Modeling its geological maturation could widen the understanding of both structure and composition of kerogen, and could be useful to oil and gas industry.In this work we adopt a purely thermodynamic approach in which we aim, through molecular simulations, at determining the thermodynamic equilibrium corresponding to the decomposition of given organic precursors of a specific type of kerogen –namely type III- under reservoir conditions. Starting from cellulose and lignin crystal structures we use replica exchange molecular dynamics (REMD) simulations, using the reactive force field ReaxFF and the open-source code LAMMPS. The REMD method is a way ofovercoming large free energy barriers, by enhancing the configurational sampling of a conventional constant temperature MD using states from higher temperatures.At the end of the simulations, we have reached for both systems, a stage where they can clearly be cast into two phases: a carbon-rich phase made of large molecular clusters that we call here the "solid" phase, and a oxygen and hydrogen rich phase made of small molecules that we call "fluid" phase.The evolution of solid parts for both systems and the natural evolution of a type III kerogen clearly match. Evolution of our systems follows the one of natural samples, as well as the one of a type III kerogen submitted to an experimental confined pyrolysis.

Page generated in 0.1141 seconds