• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 15
  • 7
  • 1
  • 1
  • Tagged with
  • 267
  • 42
  • 32
  • 28
  • 22
  • 20
  • 20
  • 16
  • 15
  • 15
  • 14
  • 14
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Inexpensive uncertainty analysis for CFD applications

Ghate, Devendra January 2014 (has links)
The work presented in this thesis aims to provide various tools to be used during design process to make maximum use of the increasing availability of accurate engine blade measurement data for high fidelity fluid mechanic simulations at a reasonable computational expense. A new method for uncertainty propagation for geometric error has been proposed for fluid mechanics codes using adjoint error correction. Inexpensive Monte Carlo (IMC) method targets small uncertainties and provides complete probability distribution for the objective function at a significantly reduced computational cost. A brief literature survey of the existing methods is followed by the formulation of IMC. An example algebraic model is used to demonstrate the IMC method. The IMC method is extended to fluid mechanic applications using Principal Component Analysis (PCA) for reduced order modelling. Implementation details for the IMC method are discussed using an example airfoil code. Finally, the IMC method has been implemented and validated for an industrial fluid mechanic code HYDRA. A consistent methodology has been developed for the automatic generation of the linear and adjoint codes by selective use of automatic differentiation (AD) technique. The method has the advantage of keeping the linear and the adjoint codes in-sync with the changes in the underlying nonlinear fluid mechanic solver. The use of various consistency checks have been demonstrated to ease the development and maintenance process of the linear and the adjoint codes. The use of AD has been extended for the calculation of the complete Hessian using forward-on-forward approach. The complete mathematical formulation for Hessian calculation using the linear and the adjoint solutions has been outlined for fluid mechanic solvers. An efficient implementation for the Hessian calculation is demonstrated using the airfoil code. A new application of the Independent Component Analysis (ICA) is proposed for manufacturing uncertainty source identification. The mathematical formulation is outlined followed by an example application of ICA for artificially generated uncertainty for the NACA0012 airfoil.
252

On parabolic stochastic integro-differential equations : existence, regularity and numerics

Leahy, James-Michael January 2015 (has links)
In this thesis, we study the existence, uniqueness, and regularity of systems of degenerate linear stochastic integro-differential equations (SIDEs) of parabolic type with adapted coefficients in the whole space. We also investigate explicit and implicit finite difference schemes for SIDEs with non-degenerate diffusion. The class of equations we consider arise in non-linear filtering of semimartingales with jumps. In Chapter 2, we derive moment estimates and a strong limit theorem for space inverses of stochastic flows generated by Lévy driven stochastic differential equations (SDEs) with adapted coefficients in weighted Hölder norms using the Sobolev embedding theorem and the change of variable formula. As an application of some basic properties of flows of Weiner driven SDEs, we prove the existence and uniqueness of classical solutions of linear parabolic second order stochastic partial differential equations (SPDEs) by partitioning the time interval and passing to the limit. The methods we use allow us to improve on previously known results in the continuous case and to derive new ones in the jump case. Chapter 3 is dedicated to the proof of existence and uniqueness of classical solutions of degenerate SIDEs using the method of stochastic characteristics. More precisely, we use Feynman-Kac transformations, conditioning, and the interlacing of space inverses of stochastic flows generated by SDEs with jumps to construct solutions. In Chapter 4, we prove the existence and uniqueness of solutions of degenerate linear stochastic evolution equations driven by jump processes in a Hilbert scale using the variational framework of stochastic evolution equations and the method of vanishing viscosity. As an application, we establish the existence and uniqueness of solutions of degenerate linear stochastic integro-differential equations in the L2-Sobolev scale. Finite difference schemes for non-degenerate SIDEs are considered in Chapter 5. Specifically, we study the rate of convergence of an explicit and an implicit-explicit finite difference scheme for linear SIDEs and show that the rate is of order one in space and order one-half in time.
253

Modèles de croissance aléatoire et théorèmes de forme asymptotique : les processus de contact / Models and asymptotic shape theorems : contact processes

Deshayes, Aurélia 10 December 2014 (has links)
Cette thèse s'inscrit dans l'étude des systèmes de particules en interaction et plus précisément dans celle des modèles de croissance aléatoire qui représentent un quantité qui grandit au cours du temps et s'étend sur un réseau. Ce type de processus apparaît naturellement quand on regarde la croissance d'un cristal ou bien la propagation d'une épidémie. Cette dernière est bien modélisée par le processus de contact introduit en 1974 par Harris. Le processus de contact est un des plus simples systèmes de particules en interaction présentant une transition de phase et l'on connaît maintenant bien son comportement sur ses phases. De nombreuses questions ouvertes sur ses extensions, notamment celles de formes asymptotiques, ont motivé ce travail. Après la présentation de ce processus et de certaines de ses extensions, nous introduisons et étudions une nouvelle variante: le processus de contact avec vieillissement où les particules ont un âge qui influence leur capacité à donner naissance à leurs voisines. Nous effectuerons pour ce modèle un couplage avec une percolation orientée inspiré de celui de Bezuidenhout-Grimmett et nous montrerons la croissance d'ordre linéaire de ce processus. Dans la dernière partie de la thèse, nous nous intéressons à la preuve d'un théorème de forme asymptotique pour des modèles généraux de croissance aléatoire grâce à des techniques sous-Additives, parfois complexes à mettre en place à cause de la non 'survie presque sûre' de nos modèles. Nous en concluons en particulier que le processus de contact avec vieillissement, le processus de contact en environnement dynamique, la percolation orientée avec immigration hostile, et le processus de contact avec sensibilisation vérifient des résultats de forme asymptotique / This thesis is a contribution to the mathematical study of interacting particles systems which include random growth models representing a spreading shape over time in the cubic lattice. These processes are used to model the crystal growth or the spread of an infection. In particular, Harris introduced in 1974 the contact process to represent such a spread. It is one of the simplest interacting particles systems which exhibits a critical phenomenon and today, its behaviour is well-Known on each phase. Many questions about its extensions remain open and motivated our work, especially the one on the asymptotic shape. After the presentation of the contact process and its extensions, we introduce a new one: the contact process with aging where each particle has an age age that influences its ability to give birth to its neighbours. We build a coupling between our process and a supercritical oriented percolation adapted from Bezuidenhout-Grimmett's construction and we establish the 'at most linear' growth of our process. In the last part of this work, we prove an asymptotic shape theorem for general random growth models thanks to subadditive techniques, which can be complicated in the case of non-Permanent models conditioned to survive. We conclude that the process with aging, the contact process in randomly evolving environment, the oriented percolation with hostile immigration and the bounded modified contact process satisfy asymptotic shape results
254

Estimation de l’histoire démographique des populations à partir de génomes entièrement séquencés. / Estimation de l’histoire démographique des populations à partir de génomes entièrement séquencés

Rodriguez Valcarce, Willy 20 June 2016 (has links)
Le développement des nouvelles techniques de séquençage élargit l' horizon de la génétique de populations. Une analyse appropriée des données génétiques peut augmenter notre capacité à reconstruire l'histoire des populations. Cette énorme quantité de données disponibles peut aider les chercheurs en biologie et anthropologie à mieux estimer les changements démographiques subis par une population au cours du temps, mais induit aussi de nouveaux défis. Lorsque les modèles sous-jacents sont trop simplistes il existe unrisque très fort d'être amené à des conclusions erronées sur la population étudiée. Il a été montré que certaines caractéristiques présentes dans l'ADN des individus d'une population structurée se trouvent aussi dans l'ADN de ceux qui proviennent d'une population sans structure dont la taille a changé au cours du temps. Par conséquent il peut s'avérer très difficile de déterminer si les changements de taille inférés à partir des données génétiquesont vraiment eu lieu ou s'il s'agit simplement des effets liés à la structure. D'ailleurs la quasi totalité des méthodes pour inférer les changements de taille d'une population au cours du temps sont basées sur des modèles qui négligent la structure.Dans cette thèse, de nouveaux résultats de génétique de populations sont présentés. Premièrement, nous présentons une méthodologie permettant de faire de la sélection de modèle à partir de l'ADN d'un seul individudiploïde. Cette première étude se limite à un modèle simple de population non structurée avec un changement de taille et à un modèle considérant une population de taille constante mais structurée. Cette nouvelle méthode utilise la distribution des temps de coalescence de deux gènes pour identifier le modèle le plus probable et ouvreainsi la voie pour de nouvelles méthodes de sélection de modèles structurés et non structurés, à partir de données génomiques issues d'un seul individu. Deuxièmement, nous montrons, par une ré-interprétation du taux de coalescence que, pour n'importe quel scénario structuré, et plus généralement n'importe quel modèle, il existe toujours un scénario considérant une population panmictique avec une fonction précise de changements de taille dont la distribution des temps de coalescence de deux gènes est identique a celle du scénario structuré. Cela non seulement explique pourquoi les méthodes d'inférence démographique détectent souvent des changements de taille n'ayant peut-être jamais eu lieu, mais permet aussi de prédire les changements de taille qui seront reconstruits lorsque des méthodes basées sur l'hypothèse de panmixie sont appliquées à des données issues de scénarios plus complexes. Finalement, une nouvelle approche basée sur un processus de Markov est développée et permet de caractériser la distribution du temps de coalescence de deux gènes dans une population structurée soumise à des événements démographiques tel que changement de flux de gènes et changements de taille. Une discussion est menée afin de décrire comment cette méthode donne la possibilité de reconstruire l'histoire démographique à partir de données génomiques tout en considérant la structure. / The rapid development of DNA sequencing technologies is expanding the horizons of population genetic studies. It is expected that genomic data will increase our ability to reconstruct the history of populations.While this increase in genetic information will likely help biologists and anthropologists to reconstruct the demographic history of populations, it also poses big challenges. In some cases, simplicity of the model maylead to erroneous conclusions about the population under study. Recent works have shown that DNA patterns expected in individuals coming from structured populations correspond with those of unstructured populations with changes in size through time. As a consequence it is often difficult to determine whether demographic events such as expansions or contractions (bottlenecks) inferred from genetic data are real or due to the fact that populations are structured in nature. Moreover, almost no inferential method allowing to reconstruct pastdemographic size changes takes into account structure effects. In this thesis, some recent results in population genetics are presented: (i) a model choice procedure is proposed to distinguish one simple scenario of population size change from one of structured population, based on the coalescence times of two genes, showing that for these simple cases, it is possible to distinguish both models using genetic information form one single individual; (ii) by using the notion of instantaneous coalescent rate, it is demonstrated that for any scenario of structured population or any other one, regardless how complex it could be, there always exists a panmitic scenario with a precise function of population size changes havingexactly the same distribution for the coalescence times of two genes. This not only explains why spurious signals of bottlenecks can be found in structured populations but also predicts the demographic history that actual inference methods are likely to reconstruct when applied to non panmitic populations. Finally, (iii) a method based on a Markov process is developed for inferring past demographic events taking the structure into account. This is method uses the distribution of coalescence times of two genes to detect past demographic changes instructured populations from the DNA of one single individual. Some applications of the model to genomic data are discussed.
255

Méthodes particulaires et vraisemblances pour l'inférence de modèles d'évolution avec dépendance au contexte / Sequential Monte Carlo methods and likelihoods for inference of context-dependent evolutionary models

Huet, Alexis 27 June 2014 (has links)
Cette thèse est consacrée à l'inférence de modèles stochastiques d'évolution de l'ADN avec dépendance au contexte, l'étude portant spécifiquement sur la classe de modèles stochastiques RN95+YpR. Cette classe de modèles repose sur un renforcement des taux d'occurrence de certaines substitutions en fonction du contexte local, ce qui introduit des phénomènes de dépendance dans l'évolution des différents sites de la séquence d'ADN. Du fait de cette dépendance, le calcul direct de la vraisemblance des séquences observées met en jeu des matrices de dimensions importantes, et est en général impraticable. Au moyen d'encodages spécifiques à la classe RN95+YpR, nous mettons en évidence de nouvelles structures de dépendance spatiales pour ces modèles, qui sont associées à l'évolution des séquences d'ADN sur toute leur histoire évolutive. Ceci rend notamment possible l'utilisation de méthodes numériques particulaires, développées dans le cadre des modèles de Markov cachés, afin d'obtenir des approximations consistantes de la vraisemblance recherchée. Un autre type d'approximation de la vraisemblance, basé sur des vraisemblances composites, est également introduit. Ces méthodes d'approximation de la vraisemblance sont implémentées au moyen d'un code en C++. Elles sont mises en œuvre sur des données simulées afin d'étudier empiriquement certaines de leurs propriétés, et sur des données génomiques, notamment à des fins de comparaison de modèles d'évolution / This thesis is devoted to the inference of context-dependent evolutionary models of DNA sequences, and is specifically focused on the RN95+YPR class of stochastic models. This class of models is based on the reinforcement of some substitution rates depending on the local context, which introduces dependence phenomena between sites in the evolution of the DNA sequence. Because of these dependencies, the direct computation of the likelihood of the observed sequences involves high-dimensional matrices, and is usually infeasible. Through encodings specific to the RN95+YpR class, we highlight new spatial dependence structures for these models, which are related to the evolution of DNA sequences throughout their evolutionary history. This enables the use of particle filter algorithms, developed in the context of hidden Markov models, in order to obtain consistent approximations of the likelihood. Another type of approximation of the likelihood, based on composite likelihoods, is also introduced. These approximation methods for the likelihood are implemented in a C++ program. They are applied on simulated data to empirically investigate some of their properties, and on genomic data, especially for comparison of evolutionary models
256

Mesures de risque multivariées et applications en science actuarielle / Multivariate risk measures and their applications in actuarial science

Said, Khalil 02 December 2016 (has links)
L'entrée en application depuis le 1er Janvier 2016 de la réforme réglementaire européenne du secteur des assurances Solvabilité 2 est un événement historique qui va changer radicalement les pratiques en matière de gestion des risques. Elle repose sur une prise en compte importante du profil et de la vision du risque, via la possibilité d'utiliser des modèles internes pour calculer les capitaux de solvabilité et l'approche ORSA (Own Risk and Solvency Assessment) pour la gestion interne du risque. La modélisation mathématique est ainsi un outil indispensable pour réussir un exercice réglementaire. La théorie du risque doit être en mesure d'accompagner ce développement en proposant des réponses à des problématiques pratiques, liées notamment à la modélisation des dépendances et aux choix des mesures de risques. Dans ce contexte, cette thèse présente une contribution à l'amélioration de la gestion des risques actuariels. En quatre chapitres nous présentons des mesures multivariées de risque et leurs applications à l'allocation du capital de solvabilité. La première partie de cette thèse est consacrée à l'introduction et l'étude d'une nouvelle famille de mesures multivariées élicitables de risque qu'on appellera des expectiles multivariés. Son premier chapitre présente ces mesures et explique les différentes approches utilisées pour les construire. Les expectiles multivariés vérifient un ensemble de propriétés de cohérence que nous abordons aussi dans ce chapitre avant de proposer un outil d'approximation stochastique de ces mesures de risque. Les performances de cette méthode étant insuffisantes au voisinage des niveaux asymptotiques des seuils des expectiles, l'analyse théorique du comportement asymptotique est nécessaire, et fera le sujet du deuxième chapitre de cette partie. L'analyse asymptotique est effectuée dans un environnement à variations régulières multivariées, elle permet d'obtenir des résultats dans le cas des queues marginales équivalentes. Nous présentons aussi dans le deuxième chapitre le comportement asymptotique des expectiles multivariés sous les hypothèses précédentes en présence d'une dépendance parfaite, ou d'une indépendance asymptotique, et nous proposons à l'aide des statistiques des valeurs extrêmes des estimateurs de l'expectile asymptotique dans ces cas. La deuxième partie de la thèse est focalisée sur la problématique de l'allocation du capital de solvabilité en assurance. Elle est composée de deux chapitres sous forme d'articles publiés. Le premier présente une axiomatisation de la cohérence d'une méthode d'allocation du capital dans le cadre le plus général possible, puis étudie les propriétés de cohérence d'une approche d'allocation basée sur la minimisation d'indicateurs multivariés de risque. Le deuxième article est une analyse probabiliste du comportement de cette dernière approche d'allocation en fonction de la nature des distributions marginales des risques et de la structure de la dépendance. Le comportement asymptotique de l'allocation est aussi étudié et l'impact de la dépendance est illustré par différents modèles marginaux et différentes copules. La présence de la dépendance entre les différents risques supportés par les compagnies d'assurance fait de l'approche multivariée une réponse plus appropriée aux différentes problématiques de la gestion des risques. Cette thèse est fondée sur une vision multidimensionnelle du risque et propose des mesures de nature multivariée qui peuvent être appliquées pour différentes problématiques actuarielles de cette nature / The entry into force since January 1st, 2016 of Solvency 2, the European regulatory reform of insurance industry, is a historic event that will radically change the practices in risk management. It is based on taking into account the own risk profile and the internal view of risk through the ability to use internal models for calculating solvency capital requirement and ORSA (Own Risk and Solvency Assessment) approach for internal risk management. It makes the mathematical modeling an essential tool for a successful regulatory exercise. The risk theory must allow to support this development by providing answers to practical problems, especially those related to the dependence modeling and the choice of risk measures. In the same context, this thesis presents a contribution to improving the management of insurance risks. In four chapters we present multivariate risk measures and their application to the allocation of solvency capital. The first part of this thesis is devoted to the introduction and study of a new family of multivariate elicitable risk measures that we will call multivariate expectiles. The first chapter presents these measures and explains the different construction approaches. The multivariate expectiles verify a set of coherence properties that we also discuss in this chapter before proposing a stochastic approximation tool of these risk measures. The performance of this method is insufficient in the asymptotic levels of the expectiles thresholds. That makes the theoretical analysis of the asymptotic behavior necessary. The asymptotic behavior of multivariate expectiles is then the subject of the second chapter of this part. It is studied in a multivariate regular variations framework, and some results are given in the case of equivalent marginal tails. We also study in the second chapter of the first part the asymptotic behavior of multivariate expectiles under previous assumptions in the presence of a perfect dependence, or in the case of asymptotic independence. Finally, we propose using extreme values statistics some estimators of the asymptotic expectile in these cases. The second part of the thesis is focused on the issue of solvency capital allocation in insurance. It is divided into two chapters; each chapter consists of a published paper. The first one presents an axiomatic characterization of the coherence of a capital allocation method in a general framework. Then it studies the coherence properties of an allocation approach based on the minimization of some multivariate risk indicators. The second paper is a probabilistic analysis of the behavior of this capital allocation method based on the nature of the marginal distributions of risks and the dependence structure. The asymptotic behavior of the optimal allocation is also studied and the impact of dependence is illustrated using some selected models and copulas. Faced to the significant presence of dependence between the various risks taken by insurance companies, a multivariate approach seems more appropriate to build responses to the various issues of risk management. This thesis is based on a multidimensional vision of risk and proposes some multivariate risk measures that can be applied to several actuarial issues of a multivariate nature
257

Modèle d’accrochage de polymères en environnement aléatoire faiblement corrélé / Pinning model with weakly correlated disorder

Poisat, Julien 16 May 2012 (has links)
Cette thèse est consacrée à l’étude du modèle d’accrochage en environnementfaiblement corrélé. Le modèle d’accrochage s’applique à de multiples situationstelles que la localisation d’un polymère au voisinage d’une interface unidimensionnelle,la transition de mouillage ou encore la dénaturation de l’ADN, le pointcommun étant la présence d’une transition entre une phase localisée et une phasedélocalisée.Nous commençons par donner un aperçu des résultats disponibles sur lescourbes et exposants critiques pour le modèle homogène puis pour le modèledésordonné lorsque le désordre est une suite de variables aléatoires indépendanteset identiquement distribuées (i.i.d.). Dans ce dernier cas, nous donnons égalementune borne sur la courbe critique quenched à haute température, dans un régimeoù le désordre est dit pertinent.Nous étudions ensuite le modèle d’accrochage désordonné dans le cas où ledésordre est gaussien et les corrélations ont une portée finie, à l’aide de la théoriedes processus de renouvellement markoviens. Nous donnons dans ce cas une expressionde la courbe annealed à l’aide de la plus grande valeur propre d’une matricede transfert ainsi que l’exposant critique annealed. Nous généralisons ensuite lescritères de pertinence et de non pertinence du désordre prouvés dans le cas i.i.d.Nous nous intéressons ensuite à des désordres dont les corrélations ont uneportée de corrélation infinie. Dans un premier temps, nous généralisons la démarcheutilisée dans le cas d’une portée de corrélations finie et obtenons le comportementcritique annealed dans le cas d’un désordre gaussien sous des hypothèses dedécroissance forte des corrélations. Nous utilisons pour cela les propriétés spectralesdes opérateurs de transfert pour des décalages sur des suites d’entiers etdes potentiels à variations sommables. Dans un deuxième temps, nous donnonsquelques résultats dans le cas où le désordre est donné par une chaîne de Markov. / In this dissertation we study the pinning model with weakly correlated disorder.The pinning model applies to various situations such as localization of a polymernear a one-dimensional interface, wetting transition and DNA denaturation, whichall display a transition between a localized phase and a delocalized phase.We start by giving a survey of the available results concerning critical pointsand exponents, first for the homogeneous setup and then for the inhomogeneousone, in the case when disorder is given by a sequence of independent and identicallydistributed (i.i.d.) random variables. In the latter case, we also provide a hightemperaturebound on the quenched critical curve in a case of relevant disorder.We then study the random pinning model when disorder is gaussian and hascorrelations with finite range, using the theory of Markov renewal processes. Weexpress the annealed critical curve in terms of the largest eigenvalue of a transfermatrix and we give the annealed critical exponent. We then generalize the criteriafor disorder relevance/irrelevance that were proved for the i.i.d. case.Next we are interested in disorder sequences with infinite range correlations.At first we generalize the method used to deal with finite range correlations andobtain the annealed critical behaviour in the case of gaussian disorder assumingfast decay of correlations. We use to this end the spectral properties of transferoperators for shifts on integer sequences and potentials with summable variations.Secondly we provide some results when disorder is a Markov chain.
258

Συμβολή στη στατιστική συμπερασματολογία για τις κατανομές γάμα και αντίστροφη κανονική με χρήση της εμπειρικής ροπογεννήτριας συνάρτησης / Contribution to statistical inference for the Gamma distributions and the Inverse Gaussian distributions using the empirical moment generating function

Καλλιώρας, Αθανάσιος Γ. 01 September 2008 (has links)
Το αντικείμενο της παρούσας διατριβής είναι η διερεύνηση μεθόδων στατιστικής συμπερασματολογίας για την προσαρμογή και έλεγχο της κατανομής γάμα και της αντίστροφης κανονικής (inverse Gaussian) κατανομής σε δεδομένα με θετική λοξότητα. Τα πρότυπα αυτά χρησιμοποιούνται ευρέως στην ανάλυση αξιοπιστίας και ελέγχου μακροβιότητας καθώς και σε άλλες εφαρμογές. Αρχικά γίνεται μια περιγραφή εναλλακτικών μεθόδων στατιστικής συμπερασματολογίας για τις διπαραμετρικές και τις τριπαραμετρικές οικογένειες κατανομών γάμα και αντίστροφης κανονικής. Στη συνέχεια διερευνάται η χρήση μεθόδων στατιστικής συμπερασματολογίας για την εκτίμηση των παραμέτρων της διπαραμετρικής γάμα κατανομής με χρήση της εμπειρικής ροπογεννήτριας συνάρτησης. Μέθοδοι εκτιμητικής, όπως είναι η μέθοδος των μικτών ροπών και των γενικευμένων ελαχίστων τετραγώνων, εφαρμόζονται και συγκρίνονται με την μέθοδο της μέγιστης πιθανοφάνειας μέσω πειραμάτων προσομοίωσης Monte Carlo. Επίσης, διερευνώνται έλεγχοι καλής προσαρμογής για τη διπαραμετρική γάμα κατανομή. Οι έλεγχοι αυτοί περιλαμβάνουν τους κλασικούς ελέγχους και έναν έλεγχο που χρησιμοποιεί την εμπειρική ροπογεννήτρια συνάρτηση. Με χρήση πειραμάτων προσομοίωσης Monte Carlo, γίνεται σύγκριση των ελέγχων ως προς το πραγματικό επίπεδο σημαντικότητας και την ισχύ έναντι άλλων λοξών προς τα δεξιά κατανομών. Στη συνέχεια εφαρμόζονται έλεγχοι καλής προσαρμογής γάμα κατανομών σε πραγματικά δεδομένα, τα οποία έχουν αναλυθεί νωρίτερα από άλλους ερευνητές. Για τον έλεγχο της τριπαραμετρικής γάμα κατανομής εφαρμόζεται μόνο ο έλεγχος με χρήση της εμπειρικής ροπογεννήτριας συνάρτησης, αφού δεν είναι γνωστοί κλασικοί έλεγχοι που χρησιμοποιούν την εμπειρική συνάρτηση κατανομής. Τέλος, γίνεται εκτίμηση ποσοστιαίων σημείων της αντίστροφης κανονικής κατανομής. Αρχικά, εκτιμώνται ποσοστιαία σημεία για την τριπαραμετρική κατανομή και στη συνέχεια εφαρμόζονται δύο μέθοδοι υπολογισμού ποσοστιαίων σημείων για την περίπτωση της διπαραμετρικής κατανομής. Η εκτίμηση των ποσοστιαίων σημείων σε κάθε οικογένεια κατανομών χρησιμοποιεί δύο μεθόδους ενδιάμεσης εκτίμησης των παραμέτρων της κατανομής. Οι μέθοδοι συγκρίνονται ως προς το μέσο τετραγωνικό σφάλμα και τη σχετική μεροληψία με τη βοήθεια πειραμάτων προσομοίωσης. / The subject of the present dissertation is the investigation of procedures of statistical inference for fitting and testing the gamma distribution and inverse Gaussian distribution, with data having positive skewness. These distributions are used widely in reliability analysis and lifetime models as well as in other applications. In the beginning, we describe alternative methods of statistical inference for the two and three-parameter families of gamma and inverse Gaussian distributions. Then, we examine methods of statistical inference in order to estimate the parameters of the two-parameter gamma distribution using the empirical moment generating function. Estimation procedures, like the method of mixed moments and the method of generalized least squares, are applied and compared with the method of maximum likelihood through Monte Carlo simulations. Also, we investigate goodness of fit tests for the two-parameter gamma distribution. These tests include the classical tests and a test based on the empirical moment generating function. Using Monte Carlo simulations, we compare the actual level of the tests and the power of the tests against skewed to the right distributions. We apply goodness of fit tests of gamma distributions to real life data, which have been examined earlier by other researchers. For the three-parameter gamma distribution we apply only one test using the empirical moment generating function since there are no classical tests using the empirical distribution function. Finally, we estimate quantiles of the inverse Gaussian distribution. We start estimating quantiles for the three-parameter distribution and then we apply two procedures which estimate quantiles for the two-parameter distribution. The estimates of the quantiles for each family of distributions use two procedures for estimating intermediary the parameters of the distribution. The procedures are compared with respect to the normalized mean square error and the relative bias using simulations.
259

Modélisation probabiliste en biologie cellulaire et moléculaire / Probabilistic modeling in cellular and molecular biology

Yvinec, Romain 05 October 2012 (has links)
De nombreux travaux récents ont démontré l’importance de la stochasticité dans l’expression des gènes à différentes échelles. On passera tout d’abord en revue les principaux résultats expérimentaux pour motiver l’étude de modèles mathèmatiques prenant en comptedes effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux : une dynamique intermittente dans un modèle d’auto-régulation de l’expression d’un gène ; et l’émergence d’hétérogénéité à partir d’une population homogène de protéines par modification post-traductionnelle. Dans le Chapitre I, nous avons étudié le modèle standard d’expression des gènes à trois variables : ADN, ARN messager et protéine. L’ADN peut être dans deux états, respectivement “ON“ et “OFF“. La transcription (production d’ARN messagers) peut avoir lieu uniquement dans l’état “ON“. La traduction (production de protéines) est proportionnelleà la quantité d’ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmesde convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d’ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l’influence de la stochasticité en comparant aux modèles déterministes ; 2) de donner en retour un moyen théorique d’estimer la fonctionde régulation par un problème inverse. Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d’agrégation fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Dôring. Dans ce modèle, l’agrégation est réversible et se fait uniquement par attachement/détachement d’un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c’est-à-dire un agrégat de taille fixé, cette taille est un paramètre du mod`ele) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilitédu temps de nucléation peut prendre différente forme selon les valeurs de paramètres : exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D’une part, le temps moyen denucl´eation est une fonction non-monotone du paramètre cinétique d’agrégation. D’autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales,observées expérimentalement ; 2) déduire la valeur de certains paramètres d’observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d’un modèle purement discret vers un modèle hybride, qui peut-être plus utile pourdes simulations numériques, ainsi que pour une étude théorique. / The importance of stochasticity in gene expression has been widely shown recently. Wewill first review the most important related work to motivate mathematical models thattakes into account stochastic effects. Then, we will study two particular models where stochasticityinduce interesting behavior, in accordance with experimental results : a bursting dynamic in a self-regulating gene expression model ; and the emergence of heterogeneityfrom a homogeneous pool of protein by post-translational modification.In Chapter I, we studied a standard gene expression model, at three variables : DNA, messenger RNA and protein. DNA can be in two distinct states, ”ON“ and ”OFF“. Transcription(production of mRNA) can occur uniquely in the ”ON“ state. Translation (productionof protein) is proportional to the quantity of mRNA. Then, the quantity of proteincan regulate in a non-linear fashion these production rates. We used convergence theoremof stochastic processes to highlight different behavior of this model. Hence, we rigorously proved the bursting phenomena of mRNA and/or protein. Limiting models are then hybridmodel, piecewise deterministic with Markovian jumps. We studied the long time behaviorof these models and proved convergence toward a stationary state. Finally, we studied indetail a reduced model, explicitly calculated the stationary distribution and studied itsbifurcation diagram. Our two main results are 1) to highlight stochastic effects by comparisonwith deterministic model ; 2) To give back a theoretical tool to estimate non-linear regulation function through an inverse problem. In Chapter II, we studied a probabilistic version of an aggregation-fragmentation model. This version allows a definition of nucleation in agreement with biological model for Prion disease. To study the nucleation, we used a stochastic version of the Becker-Döring model. In this model, aggregation is reversible and through attachment/detachment of amonomer. The nucleation time is defined as a waiting time for a nuclei (aggregate of afixed size, this size being a parameter of the model) to be formed. In this work, we characterized the law of the nucleation time. The probability distribution of the nucleation timecan take various forms according parameter values : exponential, bimodal or Weibull. Wealso highlight two important phenomena for the mean nucleation time. Firstly, the mean nucleation time is a non-monotone function of the aggregation kinetic parameter. Secondly, depending of parameter values, the mean nucleation time can be strongly or very weakly correlated with the initial quantity of monomer. These characterizations are important for 1) explaining weak dependence in initial condition observed experimentally ; 2) deducingsome parameter values from experimental observations. Hence, this study can be directly applied to biological data. Finally, concerning a polymerization-fragmentation model, weproved a convergence theorem of a purely discrete model to hybrid model, which may beuseful for numerical simulations as well as a theoretical study.
260

Théorèmes limites pour estimateurs Multilevel avec et sans poids. Comparaisons et applications / Limit theorems for Multilevel estimators with and without weights. Comparisons and applications

Giorgi, Daphné 02 June 2017 (has links)
Dans ce travail, nous nous intéressons aux estimateurs Multilevel Monte Carlo. Ces estimateurs vont apparaître sous leur forme standard, avec des poids et dans une forme randomisée. Nous allons rappeler leurs définitions et les résultats existants concernant ces estimateurs en termes de minimisation du coût de simulation. Nous allons ensuite montrer une loi forte des grands nombres et un théorème central limite. Après cela nous allons étudier deux cadres d'applications. Le premier est celui des diffusions avec schémas de discrétisation antithétiques, où nous allons étendre les estimateurs Multilevel aux estimateurs Multilevel avec poids. Le deuxième est le cadre nested, où nous allons nous concentrer sur les hypothèses d'erreur forte et faible. Nous allons conclure par l'implémentation de la forme randomisée des estimateurs Multilevel, en la comparant aux estimateurs Multilevel avec et sans poids. / In this work, we will focus on the Multilevel Monte Carlo estimators. These estimators will appear in their standard form, with weights and in their randomized form. We will recall the previous existing results concerning these estimators, in terms of minimization of the simulation cost. We will then show a strong law of large numbers and a central limit theorem.After that, we will focus on two application frameworks.The first one is the diffusions framework with antithetic discretization schemes, where we will extend the Multilevel estimators to Multilevel estimators with weights, and the second is the nested framework, where we will analyze the weak and the strong error assumptions. We will conclude by implementing the randomized form of the Multilevel estimators, comparing this to the Multilevel estimators with and without weights.

Page generated in 0.0335 seconds