• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 1
  • Tagged with
  • 68
  • 68
  • 27
  • 19
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Inferência em distribuições discretas bivariadas

Chire, Verônica Amparo Quispe 26 November 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5618.pdf: 988258 bytes, checksum: 1ce6234a919d1f5b4a4d4fd7482d543c (MD5) Previous issue date: 2013-11-26 / Financiadora de Estudos e Projetos / The analysis of bivariate data can be found in several areas of knowledge, when the data of interest are obtained in a paired way and present correlation between counts. In this work the Holgate bivariate Poisson, bivariate generalized Poisson and bivariate zero-inflated Poisson models are presented, which are useful to the modeling of bivariate count data correlated. Illustrative applications are presented for these models and the comparison between them is made by using criteria of model selection AIC and BIC, as well as the asymptotic likelihood ratio test. Particularly, we propose a Bayesian approach to the Holgate bivariate Poisson and bivariate zero-inflated Poisson models, based in the Gibbs sampling algorithm with data augmentation. / A análise de dados bivariados pode ser encontrada nas mais diversas áreas do conhecimento, quando os dados de interesse são obtidos de forma pareada e apresentam correlação entre as contagens. Neste trabalho são apresentados os modelos Poisson bivariado de Holgate, Poisson generalizado bivariado e Poisson bivariado inflacionado de zeros, os quais são úteis na modelagem de dados de contagem bivariados correlacionados. Aplicações ilustrativas serão apresentadas para estes modelos e a comparação entre eles será realizada pelos critérios de seleção de modelos AIC e BIC, assim como pelo teste da razão de verossimilhança assintótico. Particularmente, propomos uma abordagem Bayesiana para os modelos Poisson bivariado de Holgate e Poisson Inflacionado de zeros, baseada no algoritmo Gibbs sampling com dados ampliados.
62

Inferência em modelos de regressão com erros de medição sob enfoque estrutural para observações replicadas

Tomaya, Lorena Yanet Cáceres 10 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6069.pdf: 3171774 bytes, checksum: a737da63d3ddeb0d44dfc38839337d42 (MD5) Previous issue date: 2014-03-10 / Financiadora de Estudos e Projetos / The usual regression model fits data under the assumption that the explanatory variable is measured without error. However, in many situations the explanatory variable is observed with measurement errors. In these cases, measurement error models are recommended. We study a structural measurement error model for replicated observations. Estimation of parameters of the proposed models was obtained by the maximum likelihood and maximum pseudolikelihood methods. The behavior of the estimators was assessed in a simulation study with different numbers of replicates. Moreover, we proposed the likelihood ratio test, Wald test, score test, gradient test, Neyman's C test and pseudolikelihood ratio test in order to test hypotheses of interest related to the parameters. The proposed test statistics are assessed through a simulation study. Finally, the model was fitted to a real data set comprising measurements of concentrations of chemical elements in samples of Egyptian pottery. The computational implementation was developed in R language. / Um dos procedimentos usuais para estudar uma relação entre variáveis é análise de regressão. O modelo de regressão usual ajusta os dados sob a suposição de que as variáveis explicativas são medidas sem erros. Porém, em diversas situações as variáveis explicativas apresentam erros de medição. Nestes casos são utilizados os modelos com erros de medição. Neste trabalho estudamos um modelo estrutural com erros de medição para observações replicadas. A estimação dos parâmetros dos modelos propostos foi efetuada pelos métodos de máxima verossimilhança e de máxima pseudoverossimilhança. O comportamento dos estimadores de alguns parâmetros foi analisado por meio de simulações para diferentes números de réplicas. Além disso, são propostos o teste da razão de verossimilhanças, o teste de Wald, o teste escore, o teste gradiente, o teste C de Neyman e o teste da razão de pseudoverossimilhanças com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros. As estatísticas propostas são avaliadas por meio de simulações. Finalmente, o modelo foi ajustado a um conjunto de dados reais referentes a medições de concentrações de elementos químicos em amostras de cerâmicas egípcias. A implementação computacional foi desenvolvida em linguagem R.
63

Estimação do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade

Pezzott, George Lucas Moraes 14 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6083.pdf: 1151427 bytes, checksum: 24c39bb02ef8c214a3e10c3cc5bae9ef (MD5) Previous issue date: 2014-03-14 / Financiadora de Estudos e Projetos / In this work, we consider the estimation of the number of errors in a software from a closed population. The process of estimating the population size is based on the capture-recapture method which consists of examining the software, in parallel, by a number of reviewers. The probabilistic model adopted accommodates situations in which reviewers are independent and homogeneous (equally efficient), and each error is an element that is part of a disjoint partition in relation to its detection probability. We propose an iterative process to obtain maximum likelihood estimates in which the EM algorithm is used to the nuisance parameters estimation. The estimates of population parameters were also obtained under the Bayesian approach, in which Monte Carlo on Markov Chains (MCMC) simulations through Gibbs sampling algorithm with insertion of latent variables were used on the conditional posterior distributions. The two approaches were applied to simulated data and in two real data sets from the literature. / Neste trabalho, consideramos a estimação do número de erros em um software provenientes de uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura, que consiste em examinar o software, em paralelo, por certo número de revisores. O modelo probabilístico adotado acomoda situações em que os revisores são independentes e homogêneos (igualmente eficientes) e que cada erro é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. As estimativas dos parâmetros populacionais também foram obtidas sob o enfoque Bayesiano, onde utilizamos simulações de Monte Carlo em Cadeias de Markov (MCMC) através do algoritmo Gibbs sampling com a inserção de variáveis latentes nas distribuições condicionais a posteriori. As duas abordagens foram aplicadas em dados simulados e em dois conjuntos de dados reais da literatura.
64

Modelos de fronteira estocástica: uma abordagem bayesiana / Stochastic frontier models: a bayesian approach

Juliana Garcia Cespedes 24 July 2008 (has links)
A firma é o principal agente econômico para a produção e distribuição de bens e serviços. Seu constante investimento em melhorias e o aperfeiçoamento de sua capacidade produtiva, visando tornar-se cada vez mais eficiente, transforma-se em um determinante central do bem estar econômico da sociedade. O processo de medir a ineficiência de firmas baseia-se em análises de fronteiras, onde a ineficiência é medida como a distância entre os pontos observados da variável resposta e a função de produção, custo ou lucro verdadeiras, dependendo do modelo assumido para descrever a variável resposta. Existe uma variedade de formas funcionais para essas funções e algumas vezes é difícil julgar qual delas deve ser escolhida, visto que a forma verdadeira é desconhecida e pode ser somente aproximada. Em geral, na literatura, dados de produção são analisados assumindo-se modelos multiplicativos que impõem a restrição de que a produção é estritamente positiva e utiliza-se a transformação logarítmica para linearizar o modelo. Considera-se que o logaritmo do produto dada a ineficiência técnica tem distribuição contínua, independentemente de os dados serem contínuos ou discretos. A tese divide-se em dois artigos: o primeiro utiliza a inferência bayesiana para estimar a eficiência econômica de firmas utilizando os modelos de fronteira estocástica de custo com forma funcional flexível Fourier, que asseguram um bom ajuste para a fronteira, sendo fundamental para o cálculo da ineficiência econômica; o segundo artigo propõem os modelos generalizados de fronteira estocástica, baseando-se nos modelos lineares generalizados mistos com a abordagem bayesiana, para quantificar a ineficiência técnica de firmas (medida de incerteza) utilizando a variável resposta na escala original e distribuições pertencentes à família exponencial para a variável resposta dada a medida de ineficiência. / The firm is the main economic agent for the production and distribution of goods and services. Its constant investment in improvements and enhancement of its productive capacity to make itself more efficient becomes a central determinant of economic welfare of society. The measure process of inefficiency is based on frontier analysis, where inefficiency is measured as the distance between the observed points from variable response and real production, cost or profit function, depending on chosen model to describe the variable response. There are several functional forms to these functions and sometimes it is very difficult to decide which one has to be chosen because the true form is unknown and it can just be approximate. Generally, in the literature, production data are analyzed assuming multiplicative models that impose the restriction of what the production is strictly positive and use the logarithm transformation to turn the model lineal. It is considerate that the product\'s logarithm given the technical inefficiency has distribution continual, independent if the data are continuous or discrete. The papers presented in this thesis are: the first paper uses the bayesian inference to estimate the economic efficiency of firms in the cost stochastic frontier models using the Fourier flexible cost function, that assure a good settlement to the frontier being essential to calculate the economic inefficiency. The second paper proposes a generalized stochastic frontier models, based on generalized linear mixed models with the Bayesian approach, to quantify the inefficiency technical of the firms (uncertainty measures) by using the response variable in the scale original with distributions belonging on the exponential family to the response variable given the measure of inefficiency.
65

Inferência estatística em métodos de análise de ressonância magnética funcional / Statistical Inference in Methods of Analysis of Functional Magnetic Resonance

Brenno Caetano Troca Cabella 11 April 2008 (has links)
No presente trabalho, conceitos de inferência estatística são utilizados para aplicação e comparação de diferentes métodos de análise de sinais de ressonância magnética funcional. A idéia central baseia-se na obtenção da distribuição de probabilidade da variável aleatória de interesse, para cada método estudado e sob diferentes valores da relação sinal-ruído (SNR). Este objetivo é atingido através de simulações numéricas da função resposta hemodinâmica (HRF) acrescida de ruído gaussiano. Tal procedimento nos permite avaliar a sensibilidade e a especificidade dos métodos empregados através da construção das curvas ROC (receiver operating characteristic) para diferentes valores de SNR. Sob específicas condições experimentais, aplicamos métodos clássicos de análise (teste t de Student e correlação), medidas de informação (distância de Kullback-Leibler e sua forma generalizada) e um método Bayesiano (método do pixel independente). Em especial, mostramos que a distância de Kullback-Leibler (D) (ou entropia relativa) e sua forma generalizada são medidas úteis para análise de sinais dentro do cenário de teoria da informação. Estas entropias são usadas como medidas da \"distância\"entre as funções de probabilidade p1 e p2 dos níveis do sinal relacionados a estímulo e repouso. Para prevenir a ocorrência de valores divergentes de D, introduzimos um pequeno parâmetro d nas definições de p1 e p2. Estendemos a análise, apresentando um estudo original da distância de Kullback-Leibler generalizada Dq (q é o parâmetro de Tsallis). Neste caso, a escolha apropriada do intervalo 0 < q < 1 permite assegurar que Dq seja finito. Obtemos as densidades de probabilidade f (D) e f (Dq) das médias amostrais das variáveis D e Dq , respectivamente, calculadas ao longo das N épocas de todo o experimento. Para pequenos valores de N (N < 30), mostramos que f (D) e f (Dq) são muito bem aproximadas por distribuições Gamma (qui^2 < 0,0009). Em seguida, estudamos o método (Bayesiano) do pixel independente, considerando a probabilidade a posteriori como variável aleatória e obtendo sua distribuição para várias SNR\'s e probabilidades a priori. Os resultados das simulações apontam para o fato de que a correlação e o método do pixel independente apresentam melhor desempenho do que os demais métodos empregados (para SNR > -20 dB). Contudo, deve-se ponderar que o teste t e os métodos entrópicos compartilham da vantagem de não se utilizarem de um modelo para HRF na análise de dados reais. Finalmente, para os diferentes métodos, obtemos os mapas funcionais correspondentes a séries de dados reais de um voluntário assintomático submetido a estímulo motor de evento relacionado, os quais demonstram ativação nas áreas cerebrais motoras primária e secundária. Enfatizamos que o procedimento adotado no presente estudo pode, em princípio, ser utilizado em outros métodos e sob diferentes condições experimentais. / In the present work, concepts of statistical inference are used for application and comparison of different methods of signal analysis in functional magnetic resonance imaging. The central idea is based on obtaining the probability distribution of the random variable of interest, for each method studied under different values of signal-to-noise ratio (SNR). This purpose is achieved by means of numerical simulations of the hemodynamic response function (HRF) with gaussian noise. This procedure allows us to assess the sensitivity and specificity of the methods employed by the construction of the ROC curves (receiver operating characteristic) for different values of SNR. Under specific experimental conditions, we apply classical methods of analysis (Student\'s t test and correlation), information measures (distance of Kullback-Leibler and its generalized form) and a Bayesian method (independent pixel method). In particular, we show that the distance of Kullback-Leibler D (or relative entropy) and its generalized form are useful measures for analysis of signals within the information theory scenario. These entropies are used as measures of the \"distance\"between the probability functions p1 and p2 of the signal levels related to stimulus and non-stimulus. In order to avoid undesirable divergences of D, we introduced a small parameter d in the definitions of p1 and p2. We extend such analysis, by presenting an original study of the generalized Kullback-Leibler distance Dq (q is Tsallis parameter). In this case, the appropriate choice of range 0 < q < 1 ensures that Dq is finite. We obtain the probability densities f (D) and f (Dq) of the sample averages of the variables D and Dq, respectively, calculated over the N epochs of the entire experiment. For small values of N (N < 30), we show that f (D) and f (Dq) are well approximated by Gamma distributions (qui^2 < 0.0009). Afterward, we studied the independent pixel bayesian method, considering the probability a posteriori as a random variable, and obtaining its distribution for various SNR\'s and probabilities a priori. The results of simulations point to the fact that the correlation and the independent pixel method have better performance than the other methods used (for SNR> -20 dB). However, one should consider that the Student\'s t test and the entropic methods share the advantage of not using a model for HRF in real data analysis. Finally, we obtain the maps corresponding to real data series from an asymptomatic volunteer submitted to an event-related motor stimulus, which shows brain activation in the primary and secondary motor brain areas. We emphasize that the procedure adopted in this study may, in principle, be used in other methods and under different experimental conditions.
66

Uma abordagem estatística para o modelo do preço spot da energia elétrica no submercado sudeste/centro-oeste brasileiro / A statistical approach to model the spot price of electric energy: evidende from brazilian southeas/middle-west subsystem.

Guilherme Matiussi Ramalho 20 March 2014 (has links)
O objetivo deste trabalho e o desenvolvimento de uma ferramenta estatistica que sirva de base para o estudo do preco spot da energia eletrica do subsistema Sudeste/Centro-Oeste do Sistema Interligado Nacional, utilizando a estimacao por regressao linear e teste de razao de verossimilhanca como instrumentos para desenvolvimento e avaliacao dos modelos. Na analise dos resultados estatsticos descritivos dos modelos, diferentemente do que e observado na literatura, a primeira conclusao e a verificacao de que as variaveis sazonais, quando analisadas isoladamente, apresentam resultados pouco aderentes ao preco spot PLD. Apos a analise da componente sazonal e verificada a influencia da energia fornecida e a energia demandada como variaveis de entrada, com o qual conclui-se que especificamente a energia armazenada e producao de energia termeletrica sao as variaveis que mais influenciam os precos spot no subsistema estudado. Entre os modelos testados, o que particularmente ofereceu os melhores resultados foi um modelo misto criado a partir da escolha das melhores variaveis de entrada dos modelos testados preliminarmente, alcancando um coeficiente de determinacao R2 de 0.825, resultado esse que pode ser considerado aderente ao preco spot. No ultimo capitulo e apresentada uma introducao ao modelo de predicao do preco spot, possibilitando dessa forma a analise do comportamento do preco a partir da alteracao das variaveis de entrada. / The objective of this work is the development of a statistical method to study the spot prices of the electrical energy of the Southeast/Middle-West (SE-CO) subsystem of the The Brazilian National Connected System, using the Least Squares Estimation and Likelihood Ratio Test as tools to perform and evaluate the models. Verifying the descriptive statistical results of the models, differently from what is observed in the literature, the first observation is that the seasonal component, when analyzed alone, presented results loosely adherent to the spot price PLD. It is then evaluated the influence of the energy supply and the energy demand as input variables, verifying that specifically the stored water and the thermoelectric power production are the variables that the most influence the spot prices in the studied subsystem. Among the models, the one that offered the best result was a mixed model created from the selection of the best input variables of the preliminarily tested models, achieving a coeficient of determination R2 of 0.825, a result that can be considered adherent to the spot price. At the last part of the work It is presented an introduction to the spot price prediction model, allowing the analysis of the price behavior by the changing of the input variables.
67

Estimação da causalidade de Granger no caso de interação não-linear. / Nonlinear connectivity estimation by Granger causality technique.

Massaroppe, Lucas 08 August 2016 (has links)
Esta tese examina o problema de detecção de conectividade entre séries temporais no sentido de Granger no caso em que a natureza não linear das interações não permite sua determinação por meio de modelos auto-regressivos lineares vetoriais. Mostra-se que é possível realizar esta detecção com auxílio dos chamados métodos de Kernel, que se tornaram populares em aprendizado por máquina (\'machine learning\') já que tais métodos permitem definir formas generalizadas de teste de Granger, coerência parcial direcionada e função de transferência direcionada. Usando simulações, mostram-se alguns exemplos de detecção nos quais fica também evidente que resultados assintóticos deduzidos originalmente para estimadores lineares podem ser generalizados de modo análogo, mostrando-se válidos no presente contexto kernelizado. / This work examines the connectivity detection problem between time series in the Granger sense when the nonlinear nature of interactions determination is impossible via linear vector autoregressive models, but is, nonetheless, feasible with the aid of the so-called Kernel methods that are popular in machine learning. The kernelization approach allows defining generalised versions for Granger tests, partial directed coherence and directed transfer function, which the simulation of some examples shows that the asymptotic detection results originally deducted for linear estimators, can also be employed under kernelization if suitably adapted.
68

Estimação da causalidade de Granger no caso de interação não-linear. / Nonlinear connectivity estimation by Granger causality technique.

Lucas Massaroppe 08 August 2016 (has links)
Esta tese examina o problema de detecção de conectividade entre séries temporais no sentido de Granger no caso em que a natureza não linear das interações não permite sua determinação por meio de modelos auto-regressivos lineares vetoriais. Mostra-se que é possível realizar esta detecção com auxílio dos chamados métodos de Kernel, que se tornaram populares em aprendizado por máquina (\'machine learning\') já que tais métodos permitem definir formas generalizadas de teste de Granger, coerência parcial direcionada e função de transferência direcionada. Usando simulações, mostram-se alguns exemplos de detecção nos quais fica também evidente que resultados assintóticos deduzidos originalmente para estimadores lineares podem ser generalizados de modo análogo, mostrando-se válidos no presente contexto kernelizado. / This work examines the connectivity detection problem between time series in the Granger sense when the nonlinear nature of interactions determination is impossible via linear vector autoregressive models, but is, nonetheless, feasible with the aid of the so-called Kernel methods that are popular in machine learning. The kernelization approach allows defining generalised versions for Granger tests, partial directed coherence and directed transfer function, which the simulation of some examples shows that the asymptotic detection results originally deducted for linear estimators, can also be employed under kernelization if suitably adapted.

Page generated in 0.0199 seconds