• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 11
  • 5
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 35
  • 35
  • 30
  • 12
  • 10
  • 10
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Procura de assinaturas experimentais do modelo 331 com o detector CMS do CERN / Exploring the minimal 331 model in the search for new high mass dimuon resonances in the CMS experiment

Sandro Fonseca de Souza 28 April 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho investigamos a produção e detecção de novas ressonâncias de uma extensão do Modelo Padrão, o modelo 331, no detector CMS. Este modelo prediz que o número de famílias de férmions seja múltiplo de número de cor dos quarks e apresenta como assinaturas características a existência de novos bósons como o Z' e os bi-léptons duplamente carregados. Concentramos na busca destas ressonâncias de alta massa decaindo em di-múons, no caso do Z', e no canal de 2 múons e 2 elétrons para os estudos sobre os bi-léptons. O método de verossimilhança foi utilizado para quantificar a probabilidade da descoberta do Z', que possui como fundo irredutível o processo Drell Yan. Estudamos também a produção de bi-léptons que são uma assinatura única deste modelo. / In this work, we study the production and detection of the new resonances of an extension of Standard Model, the 331 model, in the CMS detector. This model predicts that the number of fermion families to be a multiple of the number of quark colors and it has as special signatures new bosons, the Z' and the double charged bi-leptons. In the Z' boson analysis, we search it through modification in the mass spectrum of highmass dimuons pairs and for the double charged bi-leptons search in the 2 muons and 2 electrons decay channel. The potential discovery of Z' boson was estimated using the Likelihood Method where the Drell-Yan process is the main background. The bi-leptons are an exclusive signature of model, which was used to discriminate this model.
12

Procura de assinaturas experimentais do modelo 331 com o detector CMS do CERN / Exploring the minimal 331 model in the search for new high mass dimuon resonances in the CMS experiment

Sandro Fonseca de Souza 28 April 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho investigamos a produção e detecção de novas ressonâncias de uma extensão do Modelo Padrão, o modelo 331, no detector CMS. Este modelo prediz que o número de famílias de férmions seja múltiplo de número de cor dos quarks e apresenta como assinaturas características a existência de novos bósons como o Z' e os bi-léptons duplamente carregados. Concentramos na busca destas ressonâncias de alta massa decaindo em di-múons, no caso do Z', e no canal de 2 múons e 2 elétrons para os estudos sobre os bi-léptons. O método de verossimilhança foi utilizado para quantificar a probabilidade da descoberta do Z', que possui como fundo irredutível o processo Drell Yan. Estudamos também a produção de bi-léptons que são uma assinatura única deste modelo. / In this work, we study the production and detection of the new resonances of an extension of Standard Model, the 331 model, in the CMS detector. This model predicts that the number of fermion families to be a multiple of the number of quark colors and it has as special signatures new bosons, the Z' and the double charged bi-leptons. In the Z' boson analysis, we search it through modification in the mass spectrum of highmass dimuons pairs and for the double charged bi-leptons search in the 2 muons and 2 electrons decay channel. The potential discovery of Z' boson was estimated using the Likelihood Method where the Drell-Yan process is the main background. The bi-leptons are an exclusive signature of model, which was used to discriminate this model.
13

Teoria de resposta ao item aplicada no ENEM / Theory of response to the item applied in the ENEM

Costa, Sidney Tadeu Santiago 03 March 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-03-15T17:36:59Z No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-03-20T12:39:15Z (GMT) No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-03-20T12:39:15Z (GMT). No. of bitstreams: 2 Dissertação - Sidney Tadeu Santiago Costa - 2017.pdf: 1406618 bytes, checksum: 291719e6f7eaaff496ec405e241ce518 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-03-03 / With the note gotten in the Exame Nacional do Ensino Médio - ENEM the students can applay the vacant in diverse public institutions of superior education and programs of the government, for example, the program Universidade para Todos(Prouni) and the Fundo de Financiamento Estudantil (Fies). The ENEM uses a methodology of correction of the objective questions called Theory of Reply to the Item - TRI, that has some aspects that are different of the Classic Theory of the Tests - TCT. The main factor that determines the result of a citizen in a avaliativo process where if uses the TCT, is the number of correct answers, while in the TRI, beyond the amount of rightnesss is basic if to analyze which answers they are correct. The objective of this work is to explain what it is the TRI and as if it applies this methodology in evaluations of wide scale. A historical boarding of the logistic models used by the TRI and the justification of the existence of each parameter will be made that composes the main equation of the modeling. To determine each parameter that composes the model of the TRI and to calculate the final note of each candidate, a procedure of called optimization will be used Method of Maximum Probability - MMV. The computational tools in the work had been software R, with packages developed for application of the TRI and the Visual programming language beginner’s all-purpose symbolic instruction code to program functions, called as macros, in electronic spread sheets. / Com a nota obtida no Exame Nacional do Ensino Médio - ENEM os estudantes podem se candidatar a vagas em diversas instituições públicas de ensino superior e programas do governo, por exemplo, o programa Universidade para Todos (Prouni) e o Fundo de Financiamento Estudantil (Fies). O ENEM utiliza uma metodologia de correção das questões objetivas denominada Teoria de Resposta ao Item - TRI, que possui vários aspectos que são diferentes da Teoria Clássica dos Testes - TCT. O principal fator que determina o resultado de um sujeito em um processo avaliativo onde se utiliza a TCT, é o número de respostas corretas, enquanto na TRI, além da quantidade de acertos é fundamental se analisar quais respostas estão corretas. O objetivo deste trabalho é explicar o que é a TRI e como se aplica essa metodologia em avaliações de larga escala. Será feita uma abordagem histórica dos modelos logísticos utilizados pela TRI e a justificativa da existência de cada parâmetro que compõe a equação principal da modelagem. Para determinar cada parâmetro que compõe o modelo da TRI e calcular a nota final de cada candidato, será utilizado um procedimento de otimização denominado Método da Máxima Verossimilhança - MMV. As ferramentas computacionais no trabalho foram o software R, com pacotes desenvolvidos para aplicação da TRI e a linguagem de programação Visual Basic para programar funções, denominadas como macros, em planilhas eletrônicas.
14

Estimation of Pareto distribution functions from samples contaminated by measurement errors

Kondlo, Lwando Orbet January 2010 (has links)
Magister Scientiae - MSc / The intention is to draw more specific connections between certain deconvolution methods and also to demonstrate the application of the statistical theory of estimation in the presence of measurement error. A parametric methodology for deconvolution when the underlying distribution is of the Pareto form is developed. Maximum likelihood estimation (MLE) of the parameters of the convolved distributions is considered. Standard errors of the estimated parameters are calculated from the inverse Fisher’s information matrix and a jackknife method. Probability-probability (P-P) plots and Kolmogorov-Smirnov (K-S) goodnessof- fit tests are used to evaluate the fit of the posited distribution. A bootstrapping method is used to calculate the critical values of the K-S test statistic, which are not available. / South Africa
15

Makroekonomická analýza s využitím postupů prostorové ekonometrie / Macroeconomic Analysis with Spatial Econometric Approaches

Macková, Simona January 2017 (has links)
Spatial econometrics can bring a useful approach to macroeconomic analysis of regional data. This thesis delineates suitable cross-section data models regarding their geographical location. Neighbourhood relation is used for the analysis. The relation of neighbourhood among the regions is expressed using spatial weight matrix. We focus on spatial autocorrelation tests and introduce processes of finding a suitable spatial model. Further, we describe regression coefficients estimates and estimates of spatial dependence coefficients, especially method of maximum likelihood estimates. Besides illustrative examples we apply chosen basic spatial models on real macroeconomic data. We examine how they describe relation between household incomes, GDP and unemployment rate in western Europe. Results are compared with a linear regression model.
16

Využití Poissonova rozdělení pro předpovědi výsledků sportovních utkání / Use of Poisson distribution for prediction of sports matches results

Svoboda, Ondřej January 2017 (has links)
The aim of this master thesis is to verify possibility to use Poisson distribution for predicting soccer matches. At first for analysis is applied the original model from English statisticians Mark J. Dixon and Stuart G. Coles from 1997. Thereafter the model is extended in the thesis. All models are based on the maximum likelihood method. Chosen league for deducing conclusions is the first English league - Premier League. The matches are played in the period from season 2004/2005 to half of season 2015/2016. For identification of models performance are used the most market odds from American bookmaker Pinnacle. In the theoretical part are described models and statistical methods that are used in the practical part. In the practical part are realized calculations. Counted performance of models is based on profit from market odds. In the period ex-post are calculated optimum model parameters that are used in the ex-ante period, where is calculated performance of the model. The thesis answers question: Are these models gaining from public database effective in modern age?
17

Estimation of Pareto Distribution Functions from Samples Contaminated by Measurement Errors

Kondlo, Lwando Orbet January 2010 (has links)
>Magister Scientiae - MSc / Estimation of population distributions, from samples that are contaminated by measurement errors, is a common problem. This study considers the problem of estimating the population distribution of independent random variables Xi, from error-contaminated samples ~i (.j = 1, ... , n) such that Yi = Xi + f·.i, where E is the measurement error, which is assumed independent of X. The measurement error ( is also assumed to be normally distributed. Since the observed distribution function is a convolution of the error distribution with the true underlying distribution, estimation of the latter is often referred to as a deconvolution problem. A thorough study of the relevant deconvolution literature in statistics is reported. We also deal with the specific case when X is assumed to follow a truncated Pareto form. If observations are subject to Gaussian errors, then the observed Y is distributed as the convolution of the finite-support Pareto and Gaussian error distributions. The convolved probability density function (PDF) and cumulative distribution function (CDF) of the finite-support Pareto and Gaussian distributions are derived. The intention is to draw more specific connections bet.ween certain deconvolution methods and also to demonstrate the application of the statistical theory of estimation in the presence of measurement error. A parametric methodology for deconvolution when the underlying distribution is of the Pareto form is developed. Maximum likelihood estimation (MLE) of the parameters of the convolved distributions is considered. Standard errors of the estimated parameters are calculated from the inverse Fisher's information matrix and a jackknife method. Probability-probability (P-P) plots and Kolmogorov-Smirnov (K-S) goodnessof- fit tests are used to evaluate the fit of the posited distribution. A bootstrapping method is used to calculate the critical values of the K-S test statistic, which are not available. Simulated data are used to validate the methodology. A real-life application of the methodology is illustrated by fitting convolved distributions to astronomical data
18

Testování hypotéz modelů úrokových sazeb / Hypothesis Testing of interest rates models

Petrík, Daniel January 2011 (has links)
V předložené práci se zabýváme problematikou stochastického modelování úro- kových sazeb. Jedním z nejobvyklejších postup· je modelovat dynamiku úroko- vých sazeb pomocí stochastické diferenciální rovnice difúze, jejímiž základními kameny jsou funkce driftu a funkce difúze. Od 70. let 20. století byla navržena celá řada model· tohoto typu, a ačkoli se tyto modely neustále zdokonalují, vyvstává přirozená otázka, zda se historicky pozorované úrokové sazby skutečně takovými difúzními rovnicemi řídily. V této práci budeme právě uvedenou hypo- tézu testovat pro několik nejběžnějších jednofaktorových model· úrokové sazby první generace. Z historických dat odhadneme obecnou momentovou metodou a metodou maximální věrohodnosti parametry jednotlivých difúzních rovnic a následně provedeme statistické testy dobré shody proložení těchto rovnic pozo- rovanými daty. 1
19

Estimativa do valor da taxa de penetrância em doenças autossômicas dominantes: estudo teórico de modelos e desenvolvimento de um programa computacional / Penetrance rate estimation for autosomal dominant diseases: study of models and development of a computer program

Horimoto, Andréa Roselí Vançan Russo 17 September 2009 (has links)
O objetivo principal do trabalho foi o desenvolvimento de um programa computacional, em linguagem Microsoft Visual Basic 6.0 (versão executável), para estimativa da taxa de penetrância a partir da análise de genealogias com casos de doenças com herança autossômica dominante. Embora muitos dos algoritmos empregados no programa tenham se baseado em idéias já publicadas na literatura (em sua maioria por pesquisadores e pós-graduandos do Laboratório de Genética Humana do Instituto de Biociências da Universidade de São Paulo), desenvolvemos alguns métodos inéditos para lidar com situações encontradas com certa frequência nos heredogramas publicados na literatura, como: a) ausência de informações sobre o fenótipo do indivíduo gerador da genealogia; b) agrupamento de árvores de indivíduos normais sem a descrição da distribuição de filhos entre os progenitores; c) análise de estruturas da genealogia contendo uniões consanguíneas, utilizando um método alternativo ao descrito na literatura; d) determinação de soluções gerais para as funções de verossimilhança de árvores de indivíduos normais com ramificação regular e para as probabilidades de heterozigose de qualquer indivíduo pertencente a essas árvores. Além da versão executável, o programa, denominado PenCalc, é apresentado também numa versão para Internet (PenCalc Web), a qual fornece adicionalmente as probabilidades de heterozigose e o cálculo de afecção na prole de todos os indivíduos da genealogia. Essa versão pode ser acessada livre e gratuitamente no endereço http://www.ib.usp.br/~otto/pencalcweb. Desenvolvemos também um modelo com taxa de penetrância variável dependente da geração, uma vez que a inspeção de famílias com doenças autossômicas dominantes, como é o caso da síndrome da ectrodactilia associada à hemimelia tibial (EHT), sugere a existência de um fenômeno similar à antecipação, em relação à taxa de penetrância. Os modelos com taxa de penetrância constante e variável, e os métodos desenvolvidos neste trabalho foram aplicados a 21 heredogramas de famílias com afetados pela EHT e ao conjunto das informações de todas essas genealogias (meta-análise), obtendo-se em todos os casos estimativas da taxa de penetrância. / The main objective of this dissertation was the development of a computer program, in Microsoft® Visual Basic® 6.0, for estimating the penetrance rate of autosomal dominant diseases by means of the information contained on genealogies. Some of the algorithms we used in the program were based on ideas already published in the literature by researchers and (post-) graduate students of the Laboratory of Human Genetics, Department of Genetics and Evolutionary Biology, Institute of Biosciences, University of São Paulo. We developed several other methods to deal with particular structures found frequently in the genealogies published in the literature, such as: a) the absence of information on the phenotype of the individual generating of the genealogy; b) the grouping of trees of normal individuals without the separate description of the offspring number per individual; c) the analysis of structures containing consanguineous unions; d) the determination of general solutions in simple analytic form for the likelihood functions of trees of normal individuals with regular branching and for the heterozygosis probabilities of any individual belonging to these trees. In addition to the executable version of the program summarized above, we also prepared, in collaboration with the dissertation supervisor and the undergraduate student Marcio T. Onodera (main author of this particular version), another program, represented by a web version (PenCalc Web). It enables the calculation of heterozygosis probabilities and the offspring risk for all individuals of the genealogy, two details we did not include in the present version of our program. The program PenCalc Web can be accessed freely at the home-page address http://www.ib.usp.br/~otto/pencalcweb. Another important contribution of this dissertation was the development of a model of estimation with generationdependent penetrance rate, as suggested by the inspection of families with some autosomal dominant diseases, such as the ectrodactyly-tibial hemimelia syndrome (ETH), a condition which exhibits a phenomenon similar to anticipation in relation to the penetrance rate. The models with constant and variable penetrance rates, as well as practically all the methods developed in this dissertation, were applied to 21 individual genealogies from the literature with cases of ETH and to the set of all these genealogies (meta-analysis). The corresponding results of all these analysis are comprehensively presented.
20

Modelos não lineares para dados de contagem longitudinais / Non linear models for count longitudinal data

Araujo, Ana Maria Souza de 16 February 2007 (has links)
Experimentos em que medidas são realizadas repetidamente na mesma unidade experimental são comuns na área agronômica. As técnicas estatísticas utilizadas para análise de dados desses experimentos são chamadas de análises de medidas repetidas, tendo como caso particular o estudo de dados longitudinais, em que uma mesma variável resposta é observada em várias ocasiões no tempo. Além disso, o comportamento longitudinal pode seguir um padrão não linear, o que ocorre com freqüência em estudos de crescimento. Também são comuns experimentos em que a variável resposta refere-se a contagem. Este trabalho abordou a modelagem de dados de contagem, obtidos a partir de experimentos com medidas repetidas ao longo do tempo, em que o comportamento longitudinal da variável resposta é não linear. A distribuição Poisson multivariada, com covariâncias iguais entre as medidas, foi utilizada de forma a considerar a dependência entre os componentes do vetor de observações de medidas repetidas em cada unidade experimental. O modelo proposto por Karlis e Meligkotsidou (2005) foi estendido para dados longitudinais provenientes de experimentos inteiramente casualizados. Modelos para experimentos em blocos casualizados, supondo-se efeitos fixos ou aleatórios para blocos, foram também propostos. A ocorrência de superdispersão foi considerada e modelada através da distribuição Poisson multivariada mista. A estimação dos parâmetros foi realizada através do método de máxima verossimilhança, via algoritmo EM. A metodologia proposta foi aplicada a dados simulados para cada uma das situações estudadas e a um conjunto de dados de um experimento em blocos casualizados em que foram observados o número de folhas de bromélias em seis instantes no tempo. O método mostrou-se eficiente na estimação dos parâmetros para o modelo considerando o delineamento completamente casualizado, inclusive na ocorrência de superdispersão, e delineamento em blocos casualizados com efeito fixo, sem superdispersão e efeito aleatório para blocos. No entanto, a estimação para o modelo que considera efeito fixo para blocos, na presença de superdispersão e para o parâmetro de variância do efeito aleatório para blocos precisa ser aprimorada. / Experiments in which measurements are taken in the same experimental unit are common in agriculture area. The statistical techniques used to analyse data from those experiments are called repeated measurement analysis, and longitudinal study, in which the response variable is observed along the time, is a particular case. The longitudinal behaviour can be non linear, occuring freq¨uently in growth studies. It is also common to have experiments in which the response variable refers to count data. This work approaches the modelling of count data, obtained from experiments with repeated measurements through time, in which the response variable longitudinal behaviour is non linear. The multivariate Poisson distribution, with equal covariances between measurements, was used to consider the dependence between the components of the repeated measurement observation vector in each experimental unit. The Karlis and Meligkotsidou (2005) proposal was extended to longitudinal data obtained from completely randomized. Models for randomized blocks experiments, assuming fixed or random effects for blocks, were also proposed. The occurence of overdispersion was considered and modelled through mixed multivariate Poisson distribution. The parameter estimation was done using maximum likelihood method, via EM algorithm. The methodology was applied to simulated data for all the cases studied and to a data set from a randomized block experiment in which the number of Bromeliads leaves were observed through six instants in time. The method was efficient to estimate the parameters for the completely randomized experiment, including the occurence of overdispersion, and for the randomized blocks experiments assuming fixed effect, with no overdispersion, and random effect for blocks. The estimation for the model that considers fixed effect for block, with overdispersion and for the variance parameters of the random effect for blocks must be improved.

Page generated in 0.0655 seconds