• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 3
  • 2
  • 1
  • Tagged with
  • 22
  • 22
  • 8
  • 7
  • 7
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Approximation de l'arborescence de Steiner / Approximation of the Directed Steiner Tree Problem

Watel, Dimitri 26 November 2014 (has links)
Dans un graphe orienté contenant un nœud appelé racine, un sous ensemble de nœuds appelés terminaux et une pondération sur les arcs, le problème de l’arborescence de Steiner (DST) consiste en la recherche d’une arborescence de poids minimum contenant pour chaque terminal un chemin de la racine vers ce terminal. Ce problème est NP-Complet. Cette thèse se penche sur l’étude de l’approximabilité de ce problème. Sauf si P=NP, il n’existe pas pour ce problème d’approximation de rapport constant ou logarithmique en k, oú k est le nombre de terminaux. Le plus petit rapport d’approximation connu est O (k") où " est un réel strictement positif. Dans la première partie, nous donnons trois algorithmes d’approximation : un algorithme glouton efficace qui associe deux techniques d’approximations connues pour DST, un algorithme dans le cas des graphes structurés en paliers qui étudie l’approximabilité du problème quand les terminaux sont éloignés de la racine, et un algorithme exponentiel qui combine un algorithme d’approximation et un algorithme exact, dont le rapport d’approximation et la complexité temporelle sont paramétrés par le nombre de terminaux couverts par l’algorithme exact. Dans la seconde partie, nous étudions deux problèmes issus de DST auquel est ajoutée une contrainte sur les nœuds de branchement. Cette contrainte réduit le nombre de solutions réalisables et peut faciliter la recherche d’une solution optimale parmi ce sous-ensemble de solutions. En fonction de la contrainte, nous étudions la possibilité de la trouver en temps polynomial et quel est le rapport d’approximation entre cette solution et la solution du problème non contraint / The directed Steiner tree problem (DST) asks, considering a directed weighted graph, a node r called root and a set of nodes X called terminals, for a minimum cost directed tree rooted in r spanning X. DST is an NP-complete problem. We are interested in the search for polynomial approximations for DST. Unless P = NP, DST can not be approximated neither within a constant ratio nor a logarithmic ratio with respected to k, where k is the number of terminals. The smallest known approximation ratio is O(kԑ)$ where ԑ is a positive real.In the first part, we provide three new approximation algorithms : a practical greedy algorithm merging two of the main approximation techniques for DST, an algorithm for the case where the graph is layered and where the distance between the terminals and the root is high, and an exponential approximation algorithm combining an approximation algorithm and an exact algorithm, parameterized with the number of terminals the exact algorithm must cover.In the last part we study DST with two branching constraints. With this technique, we are able to reduce the number of feasible solutions, and possibly facilitate the search for an optimal solution of the constraint problem. We study how it is possible to build such a solution in polynomial time and if this solution is a good approximation of an optimal solution of the non-constraint problem
12

An axial polynomial expansion and acceleration of the characteristics method for the solution of the Neutron Transport Equation / Méthode accélérée aux caractéristiques pour la solution de l'équation du transport des neutrons, avec une approximation polynomiale axiale

Graziano, Laurent 16 October 2018 (has links)
L'objectif de ce travail de thèse est le développement d'une approximation polynomiale axiale dans un solveur basé sur la Méthode des Caractéristiques. Le contexte, est celui de la solution stationnaire de l'équation de transport des neutrons pour des systèmes critiques, et l'implémentation pratique a été réalisée dans le solveur "Two/three Dimensional Transport" (TDT), faisant partie du projet APOLLO3®. Un solveur MOC pour des géométries en trois dimensions a été implémenté dans ce code pendant un projet de thèse antécédent, se basant sur une approximation constante par morceaux du flux et des sources des neutrons. Les développements présentés dans la suite représentent la continuation naturelle de ce travail. Les solveurs MOC en trois dimensions sont capables de produire des résultats précis pour des géométries complexes. Bien que précis, le coût computationnel associé à ce type de solveur est très important. Une représentation polynomiale en direction axiale du flux angulaire des neutrons a été utilisée pour réduire ce coût computationnel.Le travail réalisé pendant cette thèse peut être considéré comme divisé en trois parties: transport, accélération et autres. La première partie est constituée par l'implémentation de l'approximation polynomiale choisie dans les équations de transmission et de bilan typiques de la Méthode des Caractéristiques. Cette partie a aussi été caractérisée par le calcul d'une série de coefficients numériques qui se sont révélés nécessaires afin d'obtenir un algorithme stable. Pendant la deuxième partie, on a modifié et implémenté la solution des équations de la méthode d'accélération DPN. Cette méthode était déjà utilisée pour l'accélération et des itérations internes et externes dans TDT pour les solveurs deux et trois dimensionnels avec l'approximation des flux plat, quand ce travail a commencé. L'introduction d'une approximation polynomiale a demandé plusieurs développements numériques regardant la méthode d'accélération. Dans la dernière partie de ce travail on a recherché des solutions pour un mélange de différents problèmes liés aux premières deux parties. En premier lieux, on a eu à faire avec des instabilités numériques associées à une discrétisation spatiale ou angulaire pas suffisamment précise, soit pour la partie transport que pour la partie d'accélération. Ensuite, on a essayé d'utiliser différentes méthodes pour réduire l'empreinte mémoire des coefficients d'accélération. L'approche qu'on a finalement choisie se base sur une régression non-linéaire au sens des moindres carrés de la dépendance en fonction des sections efficaces typique de ces coefficients. L'approche standard consiste dans le stockage d'une série de coefficients pour chaque groupe d'énergie. La méthode de régression permet de remplacer cette information avec une série de coefficients calculés pendant la régression qui sont utilisés pour reconstruire les matrices d'accélération au cours des itérations. Cette procédure ajoute un certain coût computationnel à la méthode, mais nous pensons que la réduction de la mémoire rende ce surcoût acceptable.En conclusion, le travail réalisé a été concentré sur l'application d'une simple approximation polynomiale avec l'objectif de réduire le coût computationnel et l'empreinte mémoire associées à un solveur basée sur la Méthodes des Caractéristiques qui est utilisé pour calculer le flux neutroniques pour des géométries à trois dimensions extrudées. Même si cela ne constitue pas une amélioration radicale des performances, l'approximation d'ordre supérieur qu'on a introduit permet une réduction en termes de mémoire et de temps de calcul d'un facteur compris entre 2 et 5, selon le cas. Nous pensons que ces résultats constitueront une base fertile pour des futures améliorations. / The purpose of this PhD is the implementation of an axial polynomial approximation in a three-dimensional Method Of Characteristics (MOC) based solver. The context of the work is the solution of the steady state Neutron Transport Equation for critical systems, and the practical implementation has been realized in the Two/three Dimensional Transport (TDT) solver, as a part of the APOLLO3® project. A three-dimensional MOC solver for 3D extruded geometries has been implemented in this code during a previous PhD project, relying on a piecewise constant approximation for the neutrons fluxes and sources. The developments presented in the following represent the natural continuation of this work. Three-dimensional neutron transport MOC solvers are able to produce accurate results for complex geometries. However accurate, the computational cost associated to this kind of solvers is very important. An axial polynomial representation of the neutron angular fluxes has been used to lighten this computational burden.The work realized during this PhD can be considered divided in three major parts: transport, acceleration and others. The first part is constituted by the implementation of the chosen polynomial approximation in the transmission and balance equations typical of the Method Of Characteristics. This part was also characterized by the computation of a set of numerical coefficients which revealed to be necessary in order to obtain a stable algorithm. During the second part, we modified and implemented the solution of the equations of the DPN synthetic acceleration. This method was already used for the acceleration of both inners and outers iteration in TDT for the two and three dimensional solvers at the beginning of this work. The introduction of a polynomial approximation required several equations manipulations and associated numerical developments. In the last part of this work we have looked for the solutions of a mixture of different issues associated to the first two parts. Firstly, we had to deal with some numerical instabilities associated to a poor numerical spatial or angular discretization, both for the transport and for the acceleration methods. Secondly, we tried different methods to reduce the memory footprint of the acceleration coefficients. The approach that we have eventually chosen relies on a non-linear least square fitting of the cross sections dependence of such coefficients. The default approach consists in storing one set of coefficients per each energy group. The fit method allows replacing this information with a set of coefficients computed during the regression procedure that are used to re-construct the acceleration matrices on-the-fly. This procedure of course adds some computational cost to the method, but we believe that the reduction in terms of memory makes it worth it.In conclusion, the work realized has focused on applying a simple polynomial approximation in order to reduce the computational cost and memory footprint associated to a Method Of Characteristics solver used to compute the neutron fluxes in three dimensional extruded geometries. Even if this does not a constitute a radical improvement, the high order approximation that we have introduced allows a reduction in terms of memory and computational times of a factor between 2 and 5, depending on the case. We think that these results will constitute a fertile base for further improvements.
13

Constructions & Optimization in Classical Real Analysis Theorems

Elallam, Abderrahim 01 May 2021 (has links)
This thesis takes a closer look at three fundamental Classical Theorems in Real Analysis. First, for the Bolzano Weierstrass Theorem, we will be interested in constructing a convergent subsequence from a non-convergent bounded sequence. Such a subsequence is guaranteed to exist, but it is often not obvious what it is, e.g., if an = sin n. Next, the H¨older Inequality gives an upper bound, in terms of p ∈ [1,∞], for the the integral of the product of two functions. We will find the value of p that gives the best (smallest) upper-bound, focusing on the Beta and Gamma integrals. Finally, for the Weierstrass Polynomial Approximation, we will find the degree of the approximating polynomial for a variety of functions. We choose examples in which the approximating polynomial does far worse than the Taylor polynomial, but also work with continuous non-differentiable functions for which a Taylor expansion is impossible.
14

Design Of Advanced Motion Command Generators Utilizing Fpga

Ulas, Yaman 01 June 2010 (has links) (PDF)
In this study, universal motion command generator systems utilizing a Field Programmable Gate Array (FPGA) and an interface board for Robotics and Computer Numerical Control (CNC) applications have been developed. These command generation systems can be classified into two main groups as polynomial approximation and data compression based methods. In the former type of command generation methods, the command trajectory is firstly divided into segments according to the inflection points. Then, the segments are approximated using various polynomial techniques. The sequence originating from modeling error can be further included to the generated series. In the second type, higher-order differences of a given trajectory (i.e. position) are computed and the resulting data are compressed via lossless data compression techniques. Besides conventional approaches, a novel compression algorithm is also introduced in the study. This group of methods is capable of generating trajectory data at variable rates in forward and reverse directions. The generation of the commands is carried out according to the feed-rate (i.e. the speed along the trajectory) set by the external logic dynamically. These command generation techniques are implemented in MATLAB and then the best ones from each group are realized using FPGAs and their performances are assessed according to the resources used in the FPGA chip, the speed of command generation, and the memory size in Static Random Access Memory (SRAM) chip located on the development board.
15

Rigorous defect control and the numerical solution of ordinary differential equations

Ernsthausen, John+ 10 1900 (has links)
Modern numerical ordinary differential equation initial-value problem (ODE-IVP) solvers compute a piecewise polynomial approximate solution to the mathematical problem. Evaluating the mathematical problem at this approximate solution defines the defect. Corless and Corliss proposed rigorous defect control of numerical ODE-IVP. This thesis automates rigorous defect control for explicit, first-order, nonlinear ODE-IVP. Defect control is residual-based backward error analysis for ODE, a special case of Wilkinson's backward error analysis. This thesis describes a complete software implementation of the Corless and Corliss algorithm and extensive numerical studies. Basic time-stepping software is adapted to defect control and implemented. Advances in software developed for validated computing applications and advances in programming languages supporting operator overloading enable the computation of a tight rigorous enclosure of the defect evaluated at the approximate solution with Taylor models. Rigorously bounding a norm of the defect, the Corless and Corliss algorithm controls to mathematical certainty the norm of the defect to be less than a user specified tolerance over the integration interval. The validated computing software used in this thesis happens to compute a rigorous supremum norm. The defect of an approximate solution to the mathematical problem is associated with a new problem, the perturbed reference problem. This approximate solution is often the product of a numerical procedure. Nonetheless, it solves exactly the new problem including all errors. Defect control accepts the approximate solution whenever the sup-norm of the defect is less than a user specified tolerance. A user must be satisfied that the new problem is an acceptable model. / Thesis / Master of Science (MSc) / Many processes in our daily lives evolve in time, even the weather. Scientists want to predict the future makeup of the process. To do so they build models to model physical reality. Scientists design algorithms to solve these models, and the algorithm implemented in this project was designed over 25 years ago. Recent advances in mathematics and software enabled this algorithm to be implemented. Scientific software implements mathematical algorithms, and sometimes there is more than one software solution to apply to the model. The software tools developed in this project enable scientists to objectively compare solution techniques. There are two forces at play; models and software solutions. This project build software to automate the construction of the exact solution of a nearby model. That's cool.
16

Preservation of quasiconvexity and quasimonotonicity in polynomial approximation of variational problems

Heinz, Sebastian 01 September 2008 (has links)
Die vorliegende Arbeit beschäftigt sich mit drei Klassen ausgewählter nichtlinearer Probleme, die Forschungsgegenstand der angewandten Mathematik sind. Diese Probleme behandeln die Minimierung von Integralen in der Variationsrechnung (Kapitel 3), das Lösen partieller Differentialgleichungen (Kapitel 4) und das Lösen nichtlinearer Optimierungsaufgaben (Kapitel 5). Mit deren Hilfe lassen sich unterschiedlichste Phänomene der Natur- und Ingenieurwissenschaften sowie der Ökonomie mathematisch modellieren. Als konkretes Beispiel werden mathematische Modelle der Theorie elastischer Festkörper betrachtet. Das Ziel der vorliegenden Arbeit besteht darin, ein gegebenes nichtlineares Problem durch polynomiale Probleme zu approximieren. Um dieses Ziel zu erreichen, beschäftigt sich ein großer Teil der vorliegenden Arbeit mit der polynomialen Approximation von nichtlinearen Funktionen. Den Ausgangspunkt dafür bildet der Weierstraßsche Approximationssatz. Auf der Basis dieses bekannten Satzes und eigener Sätze wird als Hauptresultat der vorliegenden Arbeit gezeigt, dass im Übergang von einer gegebenen Funktion zum approximierenden Polynom wesentliche Eigenschaften der gegebenen Funktion erhalten werden können. Die wichtigsten Eigenschaften, für die dies bisher nicht bekannt war, sind: Quasikonvexität im Sinne der Variationsrechnung, Quasimonotonie im Zusammenhang mit partiellen Differentialgleichungen sowie Quasikonvexität im Sinne der nichtlinearen Optimierung (Theoreme 3.16, 4.10 und 5.5). Schließlich wird gezeigt, dass die zu den untersuchten Klassen gehörenden nichtlinearen Probleme durch polynomiale Probleme approximiert werden können (Theoreme 3.26, 4.16 und 5.8). Die dieser Approximation zugrunde liegende Konvergenz garantiert sowohl eine Approximation im Parameterraum als auch eine Approximation im Lösungsraum. Für letztere werden die Konzepte der Gamma-Konvergenz (Epi-Konvergenz) und der G-Konvergenz verwendet. / In this thesis, we are concerned with three classes of non-linear problems that appear naturally in various fields of science, engineering and economics. In order to cover many different applications, we study problems in the calculus of variation (Chapter 3), partial differential equations (Chapter 4) as well as non-linear programming problems (Chapter 5). As an example of possible applications, we consider models of non-linear elasticity theory. The aim of this thesis is to approximate a given non-linear problem by polynomial problems. In order to achieve the desired polynomial approximation of problems, a large part of this thesis is dedicated to the polynomial approximation of non-linear functions. The Weierstraß approximation theorem forms the starting point. Based on this well-known theorem, we prove theorems that eventually lead to our main result: A given non-linear function can be approximated by polynomials so that essential properties of the function are preserved. This result is new for three properties that are important in the context of the considered non-linear problems. These properties are: quasiconvexity in the sense of the calculus of variation, quasimonotonicity in the context of partial differential equations and quasiconvexity in the sense of non-linear programming (Theorems 3.16, 4.10 and 5.5). Finally, we show the following: Every non-linear problem that belongs to one of the three considered classes of problems can be approximated by polynomial problems (Theorems 3.26, 4.16 and 5.8). The underlying convergence guarantees both the approximation in the parameter space and the approximation in the solution space. In this context, we use the concepts of Gamma-convergence (epi-convergence) and of G-convergence.
17

Citlivostní analýza stabilitních problémů ocelových konstrukcí / Sensitivity analysis of stability problems of steel structures

Valeš, Jan Unknown Date (has links)
The doctoral thesis is focused on evaluation of global sensitivity analysis of load-carrying capacity of steel hot-rolled beams. These beams are subjected to lateral-torsional buckling, weak axis buckling and strong axis buckling. Very comprehensive computational models which were both geometrically and materially nonlinear were created in Ansys software using solid finite elements to calculate the load-carrying capacity. The computational models allowed modelling of random initial imperfections such as initial curvature, deviations of cross-section dimensions and steel properties. Sensitivity analysis quantified their influence on the load-carrying capacity. Simulation runs of random imperfections were generated using the Latin Hypercube Sampling method. Since the evaluation of sensitivity analysis of load-carrying capacity of all finite element models would cost an extreme amount of computer time, the thesis aimed at developing a meta-model (also known as surrogate model) based on approximation of FEM model. The approximation polynomial then facilitated the evaluation of sensitivity indices using a high number of simulation runs. At the end, the relationships between the slenderness and the first and second-order sensitivity indices are plotted in graphs. Those random input imperfections that influence the variability of load-carrying capacity the most are pointed out.
18

Approximations polynomiales rigoureuses et applications / Rigorous Polynomial Approximations and Applications

Joldes, Mioara Maria 26 September 2011 (has links)
Quand on veut évaluer ou manipuler une fonction mathématique f, il est fréquent de la remplacer par une approximation polynomiale p. On le fait, par exemple, pour implanter des fonctions élémentaires en machine, pour la quadrature ou la résolution d'équations différentielles ordinaires (ODE). De nombreuses méthodes numériques existent pour l'ensemble de ces questions et nous nous proposons de les aborder dans le cadre du calcul rigoureux, au sein duquel on exige des garanties sur la précision des résultats, tant pour l'erreur de méthode que l'erreur d'arrondi.Une approximation polynomiale rigoureuse (RPA) pour une fonction f définie sur un intervalle [a,b], est un couple (P, Delta) formé par un polynôme P et un intervalle Delta, tel que f(x)-P(x) appartienne à Delta pour tout x dans [a,b].Dans ce travail, nous analysons et introduisons plusieurs procédés de calcul de RPAs dans le cas de fonctions univariées. Nous analysons et raffinons une approche existante à base de développements de Taylor.Puis nous les remplaçons par des approximants plus fins, tels que les polynômes minimax, les séries tronquées de Chebyshev ou les interpolants de Chebyshev.Nous présentons aussi plusieurs applications: une relative à l'implantation de fonctions standard dans une bibliothèque mathématique (libm), une portant sur le calcul de développements tronqués en séries de Chebyshev de solutions d'ODE linéaires à coefficients polynômiaux et, enfin, un processus automatique d'évaluation de fonction à précision garantie sur une puce reconfigurable. / For purposes of evaluation and manipulation, mathematical functions f are commonly replaced by approximation polynomials p. Examples include floating-point implementations of elementary functions, integration, ordinary differential equations (ODE) solving. For that, a wide range of numerical methods exists. We consider the application of such methods in the context of rigorous computing, where we need guarantees on the accuracy of the result, with respect to both the truncation and rounding errors.A rigorous polynomial approximation (RPA) for a function f defined over an interval [a,b] is a couple (P, Delta) where P is a polynomial and Delta is an interval such that f(x)-P(x) belongs to Delta, for all x in [a,b]. In this work we analyse and bring forth several ways of obtaining RPAs for univariate functions. Firstly, we analyse and refine an existing approach based on Taylor expansions. Secondly, we replace them with better approximations such as minimax approximations, Chebyshev truncated series or interpolation polynomials.Several applications are presented: one from standard functions implementation in mathematical libraries (libm), another regarding the computation of Chebyshev series expansions solutions of linear ODEs with polynomial coefficients, and finally an automatic process for function evaluation with guaranteed accuracy in reconfigurable hardware.
19

Contributions à l’estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion / Contribution to kernel estimation of functionals of the distribution function with applications in economics and management

Madani, Soffana 29 September 2017 (has links)
La répartition des revenus d'une population, la distribution des instants de défaillance d'un matériel et l'évolution des bénéfices des contrats d'assurance vie - étudiées en sciences économiques et de gestion – sont liées a des fonctions continues appartenant à la classe des fonctionnelles de la fonction de répartition. Notre thèse porte sur l'estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion. Dans le premier chapitre, nous proposons des estimateurs polynomiaux locaux dans le cadre i.i.d. de deux fonctionnelles de la fonction de répartition, notées LF et TF , utiles pour produire des estimateurs lisses de la courbe de Lorenz et du temps total de test normalisé (scaled total time on test transform). La méthode d'estimation est décrite dans Abdous, Berlinet et Hengartner (2003) et nous prouvons le bon comportement asymptotique des estimateurs polynomiaux locaux. Jusqu'alors, Gastwirth (1972) et Barlow et Campo (1975) avaient défini des estimateurs continus par morceaux de la courbe de Lorenz et du temps total de test normalisé, ce qui ne respectait pas la propriété de continuité des courbes initiales. Des illustrations sur données simulées et réelles sont proposées. Le second chapitre a pour but de fournir des estimateurs polynomiaux locaux dans le cadre i.i.d. des dérivées successives des fonctionnelles de la fonction de répartition explorées dans le chapitre précédent. A part l'estimation de la dérivée première de la fonction TF qui se traite à l'aide de l'estimation lisse de la fonction de répartition, la méthode d'estimation employée est l'approximation polynomiale locale des fonctionnelles de la fonction de répartition détaillée dans Berlinet et Thomas-Agnan (2004). Divers types de convergence ainsi que la normalité asymptotique sont obtenus, y compris pour la densité et ses dérivées successives. Des simulations apparaissent et sont commentées. Le point de départ du troisième chapitre est l'estimateur de Parzen-Rosenblatt (Rosenblatt (1956), Parzen (1964)) de la densité. Nous améliorons dans un premier temps le biais de l'estimateur de Parzen-Rosenblatt et de ses dérivées successives à l'aide de noyaux d'ordre supérieur (Berlinet (1993)). Nous démontrons ensuite les nouvelles conditions de normalité asymptotique de ces estimateurs. Enfin, nous construisons une méthode de correction des effets de bord pour les estimateurs des dérivées de la densité, grâce aux dérivées d'ordre supérieur. Le dernier chapitre s'intéresse au taux de hasard, qui contrairement aux deux fonctionnelles de la fonction de répartition traitées dans le premier chapitre, n'est pas un rapport de deux fonctionnelles linéaires de la fonction de répartition. Dans le cadre i.i.d., les estimateurs à noyau du taux de hasard et de ses dérivées successives sont construits à partir des estimateurs à noyau de la densité et ses dérivées successives. La normalité asymptotique des premiers estimateurs est logiquement obtenue à partir de celle des seconds. Nous nous plaçons ensuite dans le modèle à intensité multiplicative, un cadre plus général englobant des données censurées et dépendantes. Nous menons la procédure à terme de Ramlau-Hansen (1983) afin d'obtenir les bonnes propriétés asymptotiques des estimateurs du taux de hasard et de ses dérivées successives puis nous tentons d'appliquer l'approximation polynomiale locale dans ce contexte. Le taux d'accumulation du surplus dans le domaine de la participation aux bénéfices pourra alors être estimé non parametriquement puisqu'il dépend des taux de transition (taux de hasard d'un état vers un autre) d'une chaine de Markov (Ramlau-Hansen (1991), Norberg (1999)) / The income distribution of a population, the distribution of failure times of a system and the evolution of the surplus in with-profit policies - studied in economics and management - are related to continuous functions belonging to the class of functionals of the distribution function. Our thesis covers the kernel estimation of some functionals of the distribution function with applications in economics and management. In the first chapter, we offer local polynomial estimators in the i.i.d. case of two functionals of the distribution function, written LF and TF , which are useful to produce the smooth estimators of the Lorenz curve and the scaled total time on test transform. The estimation method is described in Abdous, Berlinet and Hengartner (2003) and we prove the good asymptotic behavior of the local polynomial estimators. Until now, Gastwirth (1972) and Barlow and Campo (1975) have defined continuous piecewise estimators of the Lorenz curve and the scaled total time on test transform, which do not respect the continuity of the original curves. Illustrations on simulated and real data are given. The second chapter is intended to provide smooth estimators in the i.i.d. case of the derivatives of the two functionals of the distribution function presented in the last chapter. Apart from the estimation of the first derivative of the function TF with a smooth estimation of the distribution function, the estimation method is the local polynomial approximation of functionals of the distribution function detailed in Berlinet and Thomas-Agnan (2004). Various types of convergence and asymptotic normality are obtained, including the probability density function and its derivatives. Simulations appear and are discussed. The starting point of the third chapter is the Parzen-Rosenblatt estimator (Rosenblatt (1956), Parzen (1964)) of the probability density function. We first improve the bias of this estimator and its derivatives by using higher order kernels (Berlinet (1993)). Then we find the modified conditions for the asymptotic normality of these estimators. Finally, we build a method to remove boundary effects of the estimators of the probability density function and its derivatives, thanks to higher order derivatives. We are interested, in this final chapter, in the hazard rate function which, unlike the two functionals of the distribution function explored in the first chapter, is not a fraction of two linear functionals of the distribution function. In the i.i.d. case, kernel estimators of the hazard rate and its derivatives are produced from the kernel estimators of the probability density function and its derivatives. The asymptotic normality of the first estimators is logically obtained from the second ones. Then, we are placed in the multiplicative intensity model, a more general framework including censored and dependent data. We complete the described method in Ramlau-Hansen (1983) to obtain good asymptotic properties of the estimators of the hazard rate and its derivatives and we try to adopt the local polynomial approximation in this context. The surplus rate in with-profit policies will be nonparametrically estimated as its mathematical expression depends on transition rates (hazard rates from one state to another) in a Markov chain (Ramlau-Hansen (1991), Norberg (1999))
20

Modeling The Temperature of a Calorimeter at Clab : Considering a Thermodynamic Model of The Temperature Evolution of The Calorimeter System 251

Ekman, Johannes January 2021 (has links)
It is important to know the heat generated due to nuclear decay in the final repository for spent nuclear fuel. In Sweden, the heating powers generated in spent nuclear fuels are currently measured in the calorimeter System 251 at the Clab facility, Oskarshamn. In order to better measure, and increase understanding, of the temperature measurements in the calorimeter, a simple thermodynamic model of its temperature evolution was developed. The model was described as a system of ordinary differential equations, which were solved, and the solution was applied to calibration measurements of the calorimeter. How precise the model is, how its parameters affect the model, et cetera, are addressed. How the temperature evolution of the system changes as the values of parameters in the model are changed is addressed. The mass correction of the calorimeter could be estimated from this model, which validated the established mass correction of the calorimeter. How the measurement results from the calorimeter would be affected if the volume of the calorimeter was changed was also considered. Additionally, gamma radiation escape from the calorimeter without being detected as heat in the calorimeter. The gamma escape energy fraction was estimated by SERPENT simulations of the calorimeter, as a function of the initial photon energy. The gamma escape was also estimated for different values of the radius of System 251.

Page generated in 0.0907 seconds