• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 629
  • 267
  • 111
  • 73
  • 43
  • 43
  • 35
  • 22
  • 17
  • 11
  • 8
  • 7
  • 5
  • 5
  • 5
  • Tagged with
  • 1431
  • 530
  • 171
  • 161
  • 157
  • 147
  • 114
  • 104
  • 104
  • 100
  • 100
  • 97
  • 95
  • 94
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Uso do delineamento III com marcadores moleculares para a análise genética da produção de grãos e seus componentes em milho. / Use of the design III with molecular markers for the genetic analysis of grain yield and its components in maize.

Aurelio Mendes Aguiar 18 November 2003 (has links)
O delineamento III foi proposto para estimar as variâncias aditivas e de dominância e o grau médio de dominância de caracteres quantitativos. Com o advento dos marcadores moleculares, Cockerham & Zeng (1996) desenvolveram uma metodologia genético-estatística associando o delineamento III com marcadores moleculares. Esta metodologia foi proposta visando estimar, com o uso de quatro contrastes ortogonais, os efeitos aditivos, dominantes e epistáticos dos QTLs ligados a marcadores moleculares. O objetivo desta pesquisa foi usar ambas as metodologias para análise genética da produção de grãos, componentes da produção e número de ramificações do pendão em uma população referência F2 de milho. Duzentos e cinqüenta progênies F2:3 foram retrocruzadas com ambas linhagens genitoras, dando origem a 500 progênies de retrocruzamento. Estas progênies foram alocadas em cinco látices 10x10 e avaliadas em seis ambientes em três estações experimentais próximas a Piracicaba, SP, com duas repetições por ambientes. Estimativas de variância aditiva e de dominância, assim como o grau médio de dominância dos caracteres avaliados, apresentaram magnitudes similares às reportadas em populações de milho temperado para todos os caracteres. Estimativas do grau médio de dominância foram inferiores a um para o diâmetro da espiga, número de fileiras, peso de 500 grãos e número de ramificações do pendão, mostrando que os efeitos aditivos foram mais importantes que os efeitos de dominância para estes caracteres. Para prolificidade, comprimento da espiga e número de grãos por fileira, o grau médio de dominância não diferiu de dominância completa, sugerindo que os efeitos de dominância foram importantes para estes caracteres. Para produção de grãos, o resultado do grau médio de dominância sugeriu sobredominância. Porém, como é conhecido, o desequilíbrio de ligação causa viéses nas estimativas de grau médio de dominância e, conseqüentemente, estas estimativas podem ser menores, sendo que, provavelmente tenha ocorrido pseudo-sobredominância para produção de grãos. A análise do delineamento III com marcadores moleculares mostrou que os QTLs estão distribuídos em todos os cromossomos para todos caracteres. As somas em módulo dos efeitos dos QTLs mostraram que para produção de grãos, prolificidade, comprimento da espiga, e número de grãos por fileira, os efeitos de dominância foram superiores aos efeitos aditivos, e estes superiores aos efeitos epistáticos; para diâmetro da espiga, peso de 500 grãos, número de fileiras, e número ramificações do pendão, os efeitos aditivos foram maiores que os efeitos de dominância, e estes superiores aos efeitos epistáticos, exceto para número de fileiras em que os efeitos epistáticos foram maiores que os efeitos de dominância. Os efeitos epistáticos foram detectados para todos caracteres e contribuíram mais para os componentes da produção que para a produção de grãos per se. A análise clássica do delineamento III e a associada a marcadores moleculares forneceram resultados de grande utilidade, mas o delineamento III com marcadores permitiu a estimação dos efeitos genéticos de regiões específicas do genoma e sugeriu que os efeitos epistáticos foram muito importantes na expressão e na herança dos caracteres analisados. / The Design III was proposed to estimate additive and dominance variances, and the average levels of dominance of quantitative traits. With the advent of the molecular markers, Cockerham & Zeng (1996) developed a genetic-statistical procedure using the Design III with molecular markers. This procedure was designed to estimate additive, dominance and epistatic effects of the QTLs linked to molecular markers from four orthogonal contrasts. The objectives of this research were to use both methodologies for the genetic analysis of grain yield, yield components, and number of tassel branches in an F2 reference maize population. Two-hundred and fifty F2:3 progenies were backcrossed to the two parental inbred lines, which gave rise to 500 backcrossed progenies. These progenies were allocated in five 10x10 lattices design, and evaluated in six environments in three experimental stations near Piracicaba, SP, with two replications per environment. Estimates of additive and dominance variances, as well as the average levels of dominance for the traits evaluated, had magnitudes similar to those already reported for temperate maize populations for all traits. Estimates of the average level of dominance were lower than one for ear diameter, kernel row number, weight of 500 kernels, and tassel branches number, showing that the additive effects were more important than the dominance effects for these traits. For prolificacy, ear length, and kernels per row number, the average levels of dominance did not differ from complete dominance, suggesting that the dominance effects were important for these traits. For grain yield, the result suggested overdominance as the average level of dominance. However, as is well-known, linkage disequilibrium causes biases in the estimates of the average levels of dominance and, therefore, these estimates could be lower, and probably for grain yield a pseudo-overdominance was detected. The analysis of the Design III with molecular markers showed that QTLs were distributed in all chromosomes for all traits. The sum in module of the QTLs effects showed that for grain yield, prolificacy, ear length, and kernels per row number, dominance effect was greater than additive effect, and the latter greater than epistatic effect; whereas for ear diameter, weight of 500 kernels, kernel row number, and tassel branches number, additive effect was greater than dominance effect, and the latter greater than epistatic effect, except for kernel row number where epistatic effect was greater than dominance effect. Epistatic effects were detected for all traits, and had higher contribution for the yield components than for yield per se. Both traditional and QTL analysis of the Design III presented very useful results, but the Design III with molecular markers allowed the estimation of the genetic effects from specific genomic regions, and suggested that the epistatic effects play a very important role for the expression and inheritance of the traits assessed.
302

Analyse mathématique de méthodes numériques stochastiques en dynamique moléculaire / Mathematical analysis of stochastic numerical methods in molecular dynamics

Alrachid, Houssam 05 November 2015 (has links)
En physique statistique computationnelle, de bonnes techniques d'échantillonnage sont nécessaires pour obtenir des propriétés macroscopiques à travers des moyennes sur les états microscopiques. La principale difficulté est que ces états microscopiques sont généralement regroupés autour de configurations typiques, et un échantillonnage complet de l'espace configurationnel est donc typiquement très complexe à réaliser. Des techniques ont été proposées pour échantillonner efficacement les états microscopiques dans l'ensemble canonique. Un exemple important de quantités d'intérêt dans un tel cas est l'énergie libre. Le calcul d'énergie libre est très important dans les calculs de dynamique moléculaire, afin d'obtenir une description réduite d'un système physique complexe de grande dimension. La première partie de cette thèse est consacrée à une extension de la méthode adaptative de force biaisante classique (ABF), qui est utilisée pour calculer l'énergie libre associée à la mesure de Boltzmann-Gibbs et une coordonnée de réaction. Le problème de cette méthode est que le gradient approché de l'énergie libre, dit force moyenne, n'est pas un gradient en général. La contribution à ce domaine, présentée dans le chapitre 2, est de projeter la force moyenne estimée sur un gradient en utilisant la décomposition de Helmholtz. Dans la pratique, la nouvelle force gradient est obtenue à partir de la solution d'un problème de Poisson. En utilisant des techniques d'entropie, on étudie le comportement à la limite de l'équation de Fokker-Planck non linéaire associée au processus stochastique. On montre la convergence exponentielle vers l'équilibre de l'énergie libre estimée, avec un taux précis de convergence en fonction des constantes de l'inégalité de Sobolev logarithmiques des mesures canoniques conditionnelles à la coordonnée de réaction. L'intérêt de la méthode d'ABF projetée par rapport à l'approche originale ABF est que la variance de la nouvelle force moyenne est plus petite. On observe que cela implique une convergence plus rapide vers l'équilibre. En outre, la méthode permet d'avoir accès à une estimation de l'énergie libre en tout temps. La deuxième partie (voir le chapitre 3) est consacrée à étudier l'existence locale et globale, l'unicité et la régularité des solutions d'une équation non linéaire de Fokker-Planck associée à la méthode adaptative de force biaisante. Il s'agit d'un problème parabolique semilinéaire avec une non-linéarité non locale. L'équation de Fokker-Planck décrit l'évolution de la densité d'un processus stochastique associé à la méthode adaptative de force biaisante. Le terme non linéaire est non local et est utilisé lors de la simulation afin d'éliminer les caractéristiques métastables de la dynamique. Il est lié à une espérance conditionnelle qui définit la force biaisante. La preuve est basée sur des techniques de semi-groupe pour l'existence locale en temps, ainsi que sur une estimée a priori utilisant une sursolution pour montrer l'existence globale / In computational statistical physics, good sampling techniques are required to obtain macroscopic properties through averages over microscopic states. The main difficulty is that these microscopic states are typically clustered around typical configurations, and a complete sampling of the configurational space is thus in general very complex to achieve. Techniques have been proposed to efficiently sample the microscopic states in the canonical ensemble. An important example of quantities of interest in such a case is the free energy. Free energy computation techniques are very important in molecular dynamics computations, in order to obtain a coarse-grained description of a high-dimensional complex physical system. The first part of this thesis is dedicated to explore an extension of the classical adaptive biasing force (ABF) technique, which is used to compute the free energy associated to the Boltzmann-Gibbs measure and a reaction coordinate function. The problem of this method is that the approximated gradient of the free energy, called biasing force, is not a gradient. The contribution to this field, presented in Chapter 2, is to project the estimated biasing force on a gradient using the Helmholtz decomposition. In practice, the new gradient force is obtained by solving Poisson problem. Using entropy techniques, we study the longtime behavior of the nonlinear Fokker-Planck equation associated with the ABF process. We prove exponential convergence to equilibrium of the estimated free energy, with a precise rate of convergence in terms of the Logarithmic Sobolev inequality constants of the canonical measure conditioned to fixed values of the reaction coordinate. The interest of this projected ABF method compared to the original ABF approach is that the variance of the new biasing force is smaller, which yields quicker convergence to equilibrium. The second part, presented in Chapter 3, is dedicated to study local and global existence, uniqueness and regularity of the mild, Lp and classical solution of a nonlinear Fokker-Planck equation, arising in an adaptive biasing force method for molecular dynamics calculations. The partial differential equation is a semilinear parabolic initial boundary value problem with a nonlocal nonlinearity and periodic boundary conditions on the torus of dimension n, as presented in Chapter 3. The Fokker-Planck equation rules the evolution of the density of a given stochastic process that is a solution to Adaptive biasing force method. The nonlinear term is non local and is used during the simulation in order to remove the metastable features of the dynamics
303

Sur les modèles Tweedie multivariés / On multi variate tweedie models

Cuenin, Johann 06 December 2016 (has links)
Après avoir fait un rappel sur les généralités concernant les familles exponentielles naturelles et  les lois Tweedie univariées qui en sont un exemple particulier, nous montrerons comment étendre ces lois au cas multivarié. Une première construction permettra de définir des vecteurs aléatoires Tweedie paramétrés pas un vecteur de moyenne et une matrice de dispersion. Nous montrerons que les corrélations entre les lois marginales peuvent être contrôlées et varient entre -1 et 1. Nous verrons aussi que ces vecteurs ont quelques propriétés communes avec les vecteurs gaussiens. Nous en donnerons une représentation matricielle qui permettra d'en simuler des observations. La seconde construction permettra d'introduire les modèles Tweedie multiples constitués d'une variable Tweedie dont l'observation sera la dispersion des autres marges, toutes de lois Tweedie elles aussi. Nous donnerons la variance généralisée de ces lois et montrerons que cette dernière peut-être estimée efficacement. Enfin, nous verrons que, modulo certaines restrictions, nous pourrons donner une caractérisation par la fonction de variance généralisée des familles exponentielles naturelles générées par ces lois. / After a reminder of the natural exponential families framework and the univariate Tweedie distributions, we build two multivariate extension of the latter. A first construction, called Tweedie random vector, gives a multivariate Tweedie distribution parametrized by a mean vector and a dispersion matrix. We show that the correlations between the margins can be controlled and vary between -1 and 1. Some properties shared with the well-known Gaussian vector are given. By giving a matrix representation, we can simulate observations of Tweedie random vectors. The second construction establishes the multiple stable Tweedie models. They are vectors of which the first component is Tweedie and the others are independant Tweedie, given the first one, and with dispersion parameter given by an observation of the first component. We give the generalized variance and show that it is a product of powered component of the mean and give an efficient estimator of this parameter. Finally, we can show, with some restrictions, that the generalized variance is a tool which can be used for characterizing the natural exponential families generated by multiple stable Tweedie models.
304

Trois essais sur la généralisation des préférences moyenne-variance à l'ambiguïté / Three essays on the generalisation of mean-variance preferences to ambiguity

Andre, Eric 08 December 2014 (has links)
Cette thèse propose une généralisation des préférences moyenne-variance à l'ambiguïté, c'est-à-dire aux contextes dans lesquels l'investisseur ne peut pas, ou ne souhaite pas, décrire le comportement des actifs risqués par un modèle probabilisé unique. Elle se rattache donc au champ de recherche qui vise à appliquer les modèles de décision dans l'ambiguïté à la théorie mathématique de la finance, et dont le but est d'améliorer les capacités descriptives de cette théorie financière par la généralisation d'une de ses hypothèses centrales : l'utilité espérée.Les modèles étudiés ici sont ceux qui représentent les croyances du décideur par un ensemble de probabilités, ou priors : on cherche à montrer, d'une part, sous quelles conditions ces modèles peuvent être appliqués à la théorie financière et, d'autre part, ce qu'ils lui apportent. Ainsi, après une introduction générale qui propose une synthèse des avancées de ce champ de recherche, un premier essai étudie les conditions de compatibilité entre ces modèles à ensemble de priors et les préférences moyenne-variance, un deuxième essai analyse les possibilités offertes par le modèle Vector Expected Utility pour généraliser ces préférences à l'ambiguïté et, finalement, un troisième essai développe l'une de ces pistes pour construire un critère moyenne-variance généralisé et étudier les effets de l'aversion à l'ambiguïté sur la composition optimale d'un portefeuille d'actifs risqués. Les résultats obtenus permettent notamment de conclure que l'aversion à l'ambiguïté est bien une explication possible du puzzle de la préférence pour le pays d'origine. / This dissertation proposes a generalisation of the mean-variance preferences to ambiguity, that is contexts in which the investor can not, or does not wish to, describe the behaviour of the risky assets with a single probabilistic model. Hence it belongs to the field of research that seeks to apply models of decision under ambiguity to the mathematical theory of finance, and whose aim is to improve the descriptive capacities of this theory of finance through the generalisation of one of its central hypothesis: expected utility.The models that are studied here are those which represent the decision maker's beliefs by a set of priors: we aim to show, on the one hand, under which conditions these models can be applied to the financial theory, and, on the other hand, what they bring to it. Therefore, following a general introduction which proposes a survey of the advances of this field of research, a first essay studies the conditions of compatibility between these models with a set of priors and the mean-variance preferences, a second essay analyses the possibilities given by the Vector Expected Utility model to generalise these preferences to ambiguity and, finally, a third essay develops one of these threads to construct a generalised mean-variance criterion and to study the effects of ambiguity aversion on the optimal composition of a portfolio of risky assets. The results that are obtained allow notably to conclude that aversion to ambiguity is indeed a possible explanation of the home-bias puzzle.
305

Optimisation énergétique des protocoles de communication des réseaux de capteurs sans fil / Energy optimization of communication protocols of the WSN

Randriatsiferana, Rivo Sitraka A. 03 December 2014 (has links)
Pour augmenter la durée de vie des réseaux de capteurs sans fil, une solution est d'améliorer l'efficacité énergétique des protocoles de communication. Le regroupement des nœuds du réseau de capteurs sans fil en cluster est l'une des meilleures méthodes. Cette thèse présente propose plusieurs améliorations en modifiant les paramètres du protocole de référence LEACH. Pour améliorer la distribution énergétique des "cluster-heads", nous proposons deux protocoles de clustering centralisés k-LEACH et sa version optimisée k-LEACH-VAR. Un algorithme distribué, appelé e-LEACH, est également proposé pour réduire l'échange d'information périodique entre les nœuds et la station de base lors de l'élection des "cluster-heads". Par ailleurs, le concept l'équilibrage énergétique est introduit dans les métriques d'élection pour éviter les surcharges des nœuds. Ensuite, nous présentons une version décentralisée de k-LEACH qui, en plus des objectifs précédents, intègre la consommation d'énergie globale du réseau. Ce protocole, appelé, k-LEACH-C2D, vise également à favoriser la scalabilité du réseau. Pour renforcer ce dernier et l'autonomie des réseaux, les deux protocoles de routage "multi-hop" probabiliste, dénotés FRSM et CB-RSM construisent des chemins élémentaires entre les "cluster-heads" et la station de base. Le protocole CB-RSM forme une hiérarchie des "cluster-heads" pendant la phase de formation des clusters, en mettant un accent sur l'auto-ordonnancement et l'auto-organisation entre les "cluster-heads" pour rendre les réseaux le plus "scalable". Ces différents protocoles reposent sur l'idée de base que les nœuds ayant l'énergie résiduelle la plus élevée et la plus faible variance de consommation de l'énergie deviennent "cluster-head". Nous constantans le rôle central de la consommation du nœud dans nos différentes propositions. Ce point fera l'objet de la dernière partie de cette thèse. Nous proposons une méthodologie pour caractériser expérimentalement la consommation d'un nœud. Les objectifs visent à mieux appréhender la consommation pour différentes séquences d'état du nœud. Enfin, nous proposons un modèle global de la consommation du nœud. / To increase the lifetime of wireless sensor networks, a solution is to improve the energy efficiency of the communication's protocol. The grouping of nodes in the wireless sensor network clustering is one of the best methods. This thesis proposes several improvements by changing the settings of the reference protocol LEACH. To improve the energy distribution of "cluster-heads", we propose two centralized clustering protocols LEACH and k-optimized version k-LEACH-VAR. A distributed algorithm, called e-LEACH, is proposed to reduce the periodic exchange of information between the nodes and the base station during the election of "cluster-heads". Moreover, the concept of energy balance is introduced in metric election to avoid overloading nodes. Then we presented a decentralized version of k-LEACH, which in addition to the previous objectives, integrates the overall energy consumption of the network. This protocol, called k-LEACH-C2D, also aims to promote the scalability of the network. To reinforce the autonomy and networks, both routing protocols "multi-hop" probability, denoted CB-RSM and FRSM build elementary paths between the "cluster-heads" and elected the base station. The protocol, CB-RSM, forms a hierarchy of "cluster-heads" during the training phase clusters, with an emphasis on self-scheduling and self-organization between "cluster-heads" to make the networks more scalable. These protocols are based on the basic idea that the nodes have the highest residual energy and lower variance of energy consumption become "cluster-head". We see the central role of consumption of the node in our proposals. This point will be the last part of this thesis. We propose a methodology to characterize experimentally the consumption of a node. The objectives are to better understand the consumption for different sequences of the node status. In the end, we propose a global model of the consumption of the node.
306

Quelques problèmes liés à l'erreur statistique en homogénéisation stochastique / Some problems related to statistical error in stochastic homogenization

Minvielle, William 25 September 2015 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation d'équations dont les coefficients présentent des hétérogénéités aléatoires à petite échelle. Les difficultés liées à la résolution de telles équations aux dérivées partielles peuvent être résolues grâce à la théorie de l'homogénéisation stochastique. On substitue alors la résolution d'une équation dont les coefficients sont aléatoires et oscillants à l'échelle la plus fine du problème par la résolution d'une équation à coefficients constants. Cependant, une difficulté subsiste : le calcul de ces coefficients dits homogénéisés sont définis par une moyenne ergodique, que l'on ne peut atteindre en pratique. Seuls des approximations aléatoires de ces quantités déterministes sont calculables, et l'erreur commise lors de l'approximation est importante. Ces questions sont développées en détail dans le Chapitre 1 qui tient lieu d'introduction. L'objet du Chapitre 2 de cette thèse est de réduire l'erreur de cette approximation dans un cas nonlinéaire, en réduisant la variance de l'estimateur par la méthode des variables antithétiques. Dans le Chapitre 3, on montre comment obtenir une meilleure réduction de variance par la méthode des vari- ables de contrôle. Cette approche repose sur un modèle approché, disponible dans le cas étudié. Elle est plus invasive et moins générique, on l'étudie dans un cas linéaire. Dans le Chapitre 4, à nouveau dans un cas linéaire, on introduit une méthode de sélection pour réduire l'erreur commise. Enfin, le Chapitre 5 porte sur l'analyse d'un problème in- verse, où l'on recherche des paramètres à l'échelle la plus fine, ne connaissant que quelques quantités macroscopiques, par exemple les coefficients homogénéisés du modèle / In this thesis, we design numerical techniques to address the homogenization of equations the coefficients of which exhibit small scale random heterogeneities. Solving such elliptic partial differential equations is prohibitively expensive. One may use stochastic homogenization theory to reduce the complexity of this task. We then substitute the random, fine scale oscillating coefficients of the equation with constant homogenized coefficients. These coefficients are defined through an ergodic average inaccessible to practical computation. Only random approximations thereof are available. The error committed in this approximation is significant. These issues are detailed in the introductory Chapter 1. In Chapter 2, we show how to reduce the error in this approximation, in a nonlinear case, by using an antithetic variable estimator that has a smaller variance than the standard Monte Carlo estimator. In Chapter 3, in a linear case, we show how to obtain an even better variance reduction with the control variate method. Such a method is based on a surrogate model. In Chapter 4, we use a selection method to reduce the global error. Chapter 5 is devoted to the analysis of an inverse problem, wherein we seek parameters at the fine scale whilst only being provided with a handful of macroscopic quantities, among which the homogenized coefficients
307

Survival analysis

Wardak, Mohammad Alif 01 January 2005 (has links)
Survival analysis pertains to a statistical approach designed to take into account the amount of time an experimental unit contributes to a study. A Mayo Clinic study of 418 Primary Biliary Cirrhosis patients during a ten year period was used. The Kaplan-Meier Estimator, a non-parametric statistic, and the Cox Proportional Hazard methods were the tools applied. Kaplan-Meier results include total values/censored values.
308

Development of an adaptive variance reduction technique for Monte Carlo particle transport / Développement d'une méthode de réduction de variance adaptative pour le transport Monte Carlo de particules

Louvin, Henri 12 October 2017 (has links)
L’algorithme Adaptive Multilevel Splitting (AMS) a récemment fait son apparition dans la littérature de mathématiques appliquées, en tant que méthode de réduction de variance pour la simulation Monte Carlo de chaı̂nes de Markov. Ce travail de thèse se propose d’implémenter cette méthode de réduction de variance adaptative dans le code Monte-Carlo de transport de particules TRIPOLI-4,dédié entre autres aux études de radioprotection et d’instrumentation nucléaire. Caractérisées par de fortes atténuations des rayonnements dans la matière, ces études entrent dans la problématique du traitement d’évènements rares. Outre son implémentation inédite dans ce domaine d’application, deux nouvelles fonctionnalités ont été développées pour l’AMS, testées puis validées. La première est une procédure d’encaissement au vol permettant d’optimiser plusieurs scores en une seule simulation AMS. La seconde est une extension de l’AMS aux processus branchants, courants dans les simulations de radioprotection, par exemple lors du transport couplé de neutrons et des photons induits par ces derniers. L’efficacité et la robustesse de l’AMS dans ce nouveau cadre applicatif ont été démontrées dans des configurations physiquement très sévères (atténuations du flux de particules de plus de 10 ordres de grandeur), mettant ainsi en évidence les avantages prometteurs de l’AMS par rapport aux méthodes de réduction de variance existantes. / The Adaptive Multilevel Splitting algorithm (AMS) has recently been introduced to the field of applied mathematics as a variance reduction scheme for Monte Carlo Markov chains simulation. This Ph.D. work intends to implement this adaptative variance reduction method in the particle transport Monte Carlo code TRIPOLI-4, dedicated among others to radiation shielding and nuclear instrumentation studies. Those studies are characterized by strong radiation attenuation in matter, so that they fall within the scope of rare events analysis. In addition to its unprecedented implementation in the field of particle transport, two new features were developed for the AMS. The first is an on-the-fly scoring procedure, designed to optimize the estimation of multiple scores in a single AMS simulation. The second is an extension of the AMS to branching processes, which are common in radiation shielding simulations. For example, in coupled neutron-photon simulations, the neutrons have to be transported alongside the photons they produce. The efficiency and robustness of AMS in this new framework have been demonstrated in physically challenging configurations (particle flux attenuations larger than 10 orders of magnitude), which highlights the promising advantages of the AMS algorithm over existing variance reduction techniques.
309

Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives

Martel, Yannick 11 1900 (has links)
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori. / The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
310

Automatizace měření odchylek a stability generátorů / Meaurement process automatization of deviations and stability of oscilators

Čermák, Jan January 2010 (has links)
This Master´s thesis on a topic ,,Meaurement process automatization of deviations and stability of oscilators‘‘ describes methods for measuring the difference of time scales. Using this method, calculates the parameters of the oscillator, which is also describes in this work. Parameters of the oscillator means inning and stability. Describes is the procedure for calculating the uncertainties and their presentation in the final calibration sheet. This Master´s thesis also describes the practical measurement with this method in the Czech metrology institute in Brno. Measurement of the parameters of oscillator by the method of measurement of the difference of time scales is carried out automatically by computer. This Master´s thesis deals with the creation and development of new software and thus the automation of the entire task.

Page generated in 0.0731 seconds