• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 4
  • Tagged with
  • 36
  • 36
  • 17
  • 17
  • 15
  • 11
  • 11
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Inferência estatística em métodos de análise de ressonância magnética funcional / Statistical Inference in Methods of Analysis of Functional Magnetic Resonance

Brenno Caetano Troca Cabella 11 April 2008 (has links)
No presente trabalho, conceitos de inferência estatística são utilizados para aplicação e comparação de diferentes métodos de análise de sinais de ressonância magnética funcional. A idéia central baseia-se na obtenção da distribuição de probabilidade da variável aleatória de interesse, para cada método estudado e sob diferentes valores da relação sinal-ruído (SNR). Este objetivo é atingido através de simulações numéricas da função resposta hemodinâmica (HRF) acrescida de ruído gaussiano. Tal procedimento nos permite avaliar a sensibilidade e a especificidade dos métodos empregados através da construção das curvas ROC (receiver operating characteristic) para diferentes valores de SNR. Sob específicas condições experimentais, aplicamos métodos clássicos de análise (teste t de Student e correlação), medidas de informação (distância de Kullback-Leibler e sua forma generalizada) e um método Bayesiano (método do pixel independente). Em especial, mostramos que a distância de Kullback-Leibler (D) (ou entropia relativa) e sua forma generalizada são medidas úteis para análise de sinais dentro do cenário de teoria da informação. Estas entropias são usadas como medidas da \"distância\"entre as funções de probabilidade p1 e p2 dos níveis do sinal relacionados a estímulo e repouso. Para prevenir a ocorrência de valores divergentes de D, introduzimos um pequeno parâmetro d nas definições de p1 e p2. Estendemos a análise, apresentando um estudo original da distância de Kullback-Leibler generalizada Dq (q é o parâmetro de Tsallis). Neste caso, a escolha apropriada do intervalo 0 < q < 1 permite assegurar que Dq seja finito. Obtemos as densidades de probabilidade f (D) e f (Dq) das médias amostrais das variáveis D e Dq , respectivamente, calculadas ao longo das N épocas de todo o experimento. Para pequenos valores de N (N < 30), mostramos que f (D) e f (Dq) são muito bem aproximadas por distribuições Gamma (qui^2 < 0,0009). Em seguida, estudamos o método (Bayesiano) do pixel independente, considerando a probabilidade a posteriori como variável aleatória e obtendo sua distribuição para várias SNR\'s e probabilidades a priori. Os resultados das simulações apontam para o fato de que a correlação e o método do pixel independente apresentam melhor desempenho do que os demais métodos empregados (para SNR > -20 dB). Contudo, deve-se ponderar que o teste t e os métodos entrópicos compartilham da vantagem de não se utilizarem de um modelo para HRF na análise de dados reais. Finalmente, para os diferentes métodos, obtemos os mapas funcionais correspondentes a séries de dados reais de um voluntário assintomático submetido a estímulo motor de evento relacionado, os quais demonstram ativação nas áreas cerebrais motoras primária e secundária. Enfatizamos que o procedimento adotado no presente estudo pode, em princípio, ser utilizado em outros métodos e sob diferentes condições experimentais. / In the present work, concepts of statistical inference are used for application and comparison of different methods of signal analysis in functional magnetic resonance imaging. The central idea is based on obtaining the probability distribution of the random variable of interest, for each method studied under different values of signal-to-noise ratio (SNR). This purpose is achieved by means of numerical simulations of the hemodynamic response function (HRF) with gaussian noise. This procedure allows us to assess the sensitivity and specificity of the methods employed by the construction of the ROC curves (receiver operating characteristic) for different values of SNR. Under specific experimental conditions, we apply classical methods of analysis (Student\'s t test and correlation), information measures (distance of Kullback-Leibler and its generalized form) and a Bayesian method (independent pixel method). In particular, we show that the distance of Kullback-Leibler D (or relative entropy) and its generalized form are useful measures for analysis of signals within the information theory scenario. These entropies are used as measures of the \"distance\"between the probability functions p1 and p2 of the signal levels related to stimulus and non-stimulus. In order to avoid undesirable divergences of D, we introduced a small parameter d in the definitions of p1 and p2. We extend such analysis, by presenting an original study of the generalized Kullback-Leibler distance Dq (q is Tsallis parameter). In this case, the appropriate choice of range 0 < q < 1 ensures that Dq is finite. We obtain the probability densities f (D) and f (Dq) of the sample averages of the variables D and Dq, respectively, calculated over the N epochs of the entire experiment. For small values of N (N < 30), we show that f (D) and f (Dq) are well approximated by Gamma distributions (qui^2 < 0.0009). Afterward, we studied the independent pixel bayesian method, considering the probability a posteriori as a random variable, and obtaining its distribution for various SNR\'s and probabilities a priori. The results of simulations point to the fact that the correlation and the independent pixel method have better performance than the other methods used (for SNR> -20 dB). However, one should consider that the Student\'s t test and the entropic methods share the advantage of not using a model for HRF in real data analysis. Finally, we obtain the maps corresponding to real data series from an asymptomatic volunteer submitted to an event-related motor stimulus, which shows brain activation in the primary and secondary motor brain areas. We emphasize that the procedure adopted in this study may, in principle, be used in other methods and under different experimental conditions.
32

Avaliação de métodos paramétricos e não paramétricos na análise da eficiência da produção de leite. / Evaluation of methods parametric and non parametric in the analysis of the efficiency of the milk production.

Daniel Pacifico Homem de Souza 18 November 2003 (has links)
O objetivo principal do estudo é ofercer uma contribuição metodológica testando os métodos mais usados na análise da eficiência relativa, vis a vis comparando um produtor com um grupo de produtores assemelhados, ou então, um produtor com toda a amostra, como é o caso da fronteira estocástica. Os métodos testados foram o DEA (análise envoltória de dados), a fronteira estocástica e o procedimento de Varian, tendo como objetivo da investigação produtores de leite. Para se testar a hipótese que os produtores de leite são eficientes, quanto à escolha da isoquanta e do ponto que minimiza custo, dada a pressuposição de que os agricultores realizam escolhas corretas, utilizam-se dois grupos de métodos. Os métodos não paramétricos aproximam-se mais do ideal de comparar um produtor com o grupo em que se insere. A base de tecnologia é a do grupo, sem apelo à função de produção. Os paramétricos são mais exigentes, pois pressupõem uma função de produção que tem que ser estimada; porém, são mais ricos e consistentes, no que tange ao teste de hipótese. O DEA é classificado de não paramétrico, porque não propõe uma função com os parâmetros que são estimados. Mas, implicitamente, gera uma função de produção, via programação linear. São menos estruturados que a fronteira estocástica, e mais exigentes que o procedimento de Varian, no sentido de que este não pressupõe qualquer fronteira explícita, como o método da fronteira estocástica, ou fronteira implícita, como o DEA. O DEA e o procedimento de Varian são deterministas, visto não associar aos modelos qualquer estrutura de probabilidade. A fronteira estocástica explicitamente associa ao modelo uma estrutura de probabilidade, pela forma que se define o termo do erro da regressão; desta forma é mais rica em testes de hipótese. Duas amostras foram utilizadas para se testar as hipóteses propostas. A primeira refere-se a um grupo de 143 produtores comerciais de leite, com as propriedades distribuídas nos seis maiores estados produtores do Brasil. A segunda amostra de produtores de leite é composta de 114 observações localizadas no estado de Minas Gerais. O método de Varian foi o que produziu menos distúrios em relação aos insumos ou produto. Estabelece maiores incrementos à renda líquida que a fronteira estocástica e menos do que DEA. Sua solução fica mais próxima daquilo que é factível para cada produtor fazer. O método prescinde do conceito de uma fronteira, reordenando os custos em relação aos produtores que produziram mais e gastaram menos, embora o procedimento de reordenamento requeira programação quadrática. Portanto, é um método aderente à gestão. A fronteira estocástica não objetiva nem aumentar a renda líquida e nem reduzir custos. Seu efeito sobre a renda líquida foi até negativo e produziu um maior distúrbio nos insumos e muito pequeno no produto, o que sempre ocorrerá, quando a função de produção se ajustar adequadamente aos dados. O método Varian foi mais apropriado para testar a hipótese de que os produtores, por tentativa e erro, acabam se localizando na fronteira eficiente, no ponto que minimiza o custo. Uma ves que exige somente que os agricultores racionalizem os custos, obedecendo à regra de racionalização, e passando ao largo da dinâmica de mercado, pela qual os produtores convergem para o custo mínimo, o que pode demandar muito tempo, em função de restrições, inclusive de emprego em outros setores da economia. Com os dados de um ano ou de poucos anos, quando não se pode captar o movimento de convergência, o DEA e a maximização da renda líquida são procedimentos inadequados para testar a hipótese de Schultz. / The objective of the study is test the most applied methods in the analysis of the relative efficiency, purposing the comparation between a producer and a group of resembled producers, or a producer with the entire sample, as the stochastic frontier’s (random border) case. The tested methods were the DEA (Data Envelopment Analysis), the stochastic frontier and the Varian procedure, analyzing mainly milk producers. Looking for testing the hypothesis that the milk producers are efficient, relating choice of isoquant and the cost minimization point, giving the assumption of the producers achieve correct choices, and it was selected two group methods. The non parametric methods (distribution free) is the best approach to compare a producer with its group. The technology basis is supported by the group, without going through the production function. The parametric procedures are more exigent because they assume a production function that has been estimated, however is more consistent to the hypothesis test. The DEA is classified of non parametric approach, because it does not consider a function with estimated parameters, but, implicitly, it generates a production function, using linear programming. Its less structuralized than the stochastic frontier, more exigent than the Varian procedure, considering the sense that this method does not estimate any frontier, explicitly, as the stochastic frontier method (implicit border), or the DEA. The DEA and the Varian procedure are deterministic, not associated with models that hold back some structure of probability. The stochastic frontier is an associate to the probability structure model, since it defines the term of the regression error making richer the hypothesis tests. Two samples had been used to test the hypotheses. The first one takes a group of 143 commercial milk producers, whose farm enterprises were distributed in the six biggest producer states of Brazil. The second is established by a group of 114 milk producers located in the state of Minas Gerais. The Varian method produced little disturb related to the inputs or outputs. The net income obtained was bigger than the stochastic frontier and smaller than the DEA. This solution is near to the decision of producer based on feasible to make. The method requires the concept of a frontier, rearranging the costs in related to the producers that had produced more and spent less, even so, the reordering procedure requires quadratic programming. Therefore, it is a very convenient method of management. The stochastic frontier doesn’t pursue increase in the net income reduce the costs. In this study the effect on the net income was negative and produced larger disturbs in the inputs and smaller in the products. Facts that will always occur when the production function is adjust to the data. The Varian method was more appropriate in testing hypothesis of the producers, using the experiment and error test, locating them in the efficient frontier, where the point minimizes the costs is located. Therefore it demands that the producer rationalize the costs following the rationalization rule, where the producers drive themselves minimum cost. This procedure can demand much time, in function of constraints of the other sectors of the economy. Considering data of one or more years the DEA and the maximization of the net income have been inadequate procedures to test the hypothesis of Schultz, when it cannot collect convergence movement.
33

O uso de quase U-estatísticas para séries temporais uni e multivaridas / The use of quasi U-statistics for univariate and multivariate time series

Valk, Marcio 17 August 2018 (has links)
Orientador: Aluísio de Souza Pinheiro / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática Estatítica e Computação Científica / Made available in DSpace on 2018-08-17T14:57:09Z (GMT). No. of bitstreams: 1 Valk_Marcio_D.pdf: 2306844 bytes, checksum: 31162915c290291a91806cdc6f69f697 (MD5) Previous issue date: 2011 / Resumo: Classificação e agrupamento de séries temporais são problemas bastante explorados na literatura atual. Muitas técnicas são apresentadas para resolver estes problemas. No entanto, as restrições necessárias, em geral, tornam os procedimentos específicos e aplicáveis somente a uma determinada classe de séries temporais. Além disso, muitas dessas abordagens são empíricas. Neste trabalho, propomos métodos para classificação e agrupamento de séries temporais baseados em quase U-estatísticas(Pinheiro et al. (2009) e Pinheiro et al. (2010)). Como núcleos das U-estatísticas são utilizadas métricas baseadas em ferramentas bem conhecidas na literatura de séries temporais, entre as quais o periodograma e a autocorrelação amostral. Três situações principais são consideradas: séries univariadas; séries multivariadas; e séries com valores aberrantes. _E demonstrada a normalidade assintética dos testes propostos para uma ampla classe de métricas e modelos. Os métodos são estudados também por simulação e ilustrados por aplicação em dados reais. / Abstract: Classifcation and clustering of time series are problems widely explored in the current literature. Many techniques are presented to solve these problems. However, the necessary restrictions in general, make the procedures specific and applicable only to a certain class of time series. Moreover, many of these approaches are empirical. We present methods for classi_cation and clustering of time series based on Quasi U-statistics (Pinheiro et al. (2009) and Pinheiro et al. (2010)). As kernel of U-statistics are used metrics based on tools well known in the literature of time series, including the sample autocorrelation and periodogram. Three main situations are considered: univariate time series, multivariate time series, and time series with outliers. It is demonstrated the asymptotic normality of the proposed tests for a wide class of metrics and models. The methods are also studied by simulation and applied in a real data set. / Doutorado / Estatistica / Doutor em Estatística
34

Wald tests for IV regression with weak instruments

Vilela, Lucas Pimentel 17 September 2013 (has links)
Submitted by Lucas Pimentel Vilela (lvilela@fgvmail.br) on 2013-10-07T17:22:14Z No. of bitstreams: 2 Dissertação Final.pdf: 665295 bytes, checksum: b54a14202e41e19e863a73328cfb2123 (MD5) Supplement.pdf: 2259071 bytes, checksum: 19718d483c50f35f3878c81521b0acf9 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2013-10-08T21:33:30Z (GMT) No. of bitstreams: 2 Dissertação Final.pdf: 665295 bytes, checksum: b54a14202e41e19e863a73328cfb2123 (MD5) Supplement.pdf: 2259071 bytes, checksum: 19718d483c50f35f3878c81521b0acf9 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2013-10-14T14:44:28Z (GMT) No. of bitstreams: 2 Dissertação Final.pdf: 665295 bytes, checksum: b54a14202e41e19e863a73328cfb2123 (MD5) Supplement.pdf: 2259071 bytes, checksum: 19718d483c50f35f3878c81521b0acf9 (MD5) / Made available in DSpace on 2013-10-14T14:45:02Z (GMT). No. of bitstreams: 2 Dissertação Final.pdf: 665295 bytes, checksum: b54a14202e41e19e863a73328cfb2123 (MD5) Supplement.pdf: 2259071 bytes, checksum: 19718d483c50f35f3878c81521b0acf9 (MD5) Previous issue date: 2013-09-17 / This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003). / Esta dissertação trata do problema de inferência na presença de identificação fraca em modelos de regresso com variáveis instrumentais. Mais especificamente em testes de hipóteses com relação ao parâmetro da variável endógena quando os instrumentos são fracos. O principal foco é nos testes condicionais unilaterais baseados nas estatísticas de razão de máxima verossimilhança, score e Wald. Resultados teóricos e numéricos mostram que o teste t condicional unilateral baseado no estimador de mínimos quadrados em dois estágios tem uma boa performance mesmo na presença de instrumentos fracamente correlacionados com a variável endógena. A abordagem condicional corrige uniformemente o tamanho do teste t e quando a estatística F populacional é tão pequena quanto dois, o poder do teste é próximo ao power envelope tanto de testes similares quanto de não similares. Tal resultado é surpreendente visto a má performance dos testes t’s condicionais bilaterais relatada em (6, Andrews, Moreira and Stock (2007)). Dado esse resultado aparentemente contra intuitivo, apresentamos novos testes t’s condicionals bilaterais que são aproximadamente não viesados e performam, em alguns casos, tão bem quanto o teste condicional baseado na estatística de razão de verossimilhança de ( 19 , Moreira (2003)).
35

Invariant tests in an instrumental variables model with unknown data generating process

Castro, Gustavo Rabello de 28 April 2015 (has links)
Submitted by Gustavo Rabello de Castro (grdcastro@outlook.com) on 2016-01-17T15:36:58Z No. of bitstreams: 1 Dissertacao Final.pdf: 1716177 bytes, checksum: 6516904780e3dae7837ee9b481d63ba7 (MD5) / Approved for entry into archive by BRUNA BARROS (bruna.barros@fgv.br) on 2016-01-21T17:18:28Z (GMT) No. of bitstreams: 1 Dissertacao Final.pdf: 1716177 bytes, checksum: 6516904780e3dae7837ee9b481d63ba7 (MD5) / Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2016-02-11T17:59:08Z (GMT) No. of bitstreams: 1 Dissertacao Final.pdf: 1716177 bytes, checksum: 6516904780e3dae7837ee9b481d63ba7 (MD5) / Made available in DSpace on 2016-02-11T17:59:18Z (GMT). No. of bitstreams: 1 Dissertacao Final.pdf: 1716177 bytes, checksum: 6516904780e3dae7837ee9b481d63ba7 (MD5) Previous issue date: 2015-04-28 / In this work we focus on tests for the parameter of an endogenous variable in a weakly identi ed instrumental variable regressionmodel. We propose a new unbiasedness restriction for weighted average power (WAP) tests introduced by Moreira and Moreira (2013). This new boundary condition is motivated by the score e ciency under strong identi cation. It allows reducing computational costs of WAP tests by replacing the strongly unbiased condition. This latter restriction imposes, under the null hypothesis, the test to be uncorrelated to a given statistic with dimension given by the number of instruments. The new proposed boundary condition only imposes the test to be uncorrelated to a linear combination of the statistic. WAP tests under both restrictions to perform similarly numerically. We apply the di erent tests discussed to an empirical example. Using data from Yogo (2004), we assess the e ect of weak instruments on the estimation of the elasticity of inter-temporal substitution of a CCAPM model. / Este trabalho trata de testes para o parâmetro de uma variável endógena em modelos de regressão com variáveis instrumentais fracas. Propomos uma nova restrição para o viés dos testes weighted average power (WAP), desenvolvidos em Moreira e Moreira (16, 2013). A motivação para essa nova restrição se baseia na eficiência do teste score sob a hipótese de identificação forte. Essa hipótese permite reduzir o custo computacional dos testes WAP, substituindo a restrição de strongly unbiased. Esta ultima demanda que, sob a hipótese nula, o teste seja ortogonal a uma dada estatística com sua dimensão dada pelo número de instrumentos. A restrição aqui proposta exige somente que o teste seja não correlacionado com uma combinação linear dessa estatística. Nas simulações, ambos os testes apresentam um desempenho numericamente similar. Aplicamos ainda os testes discutidos neste trabalho na estimação da elasticidade de substituição intertemporal de um modelo CCAPM.
36

Hypothesis testing in econometric models

Vilela, Lucas Pimentel 11 December 2015 (has links)
Submitted by Lucas Pimentel Vilela (lucaspimentelvilela@gmail.com) on 2017-05-04T01:19:37Z No. of bitstreams: 1 Hypothesis Testing in Econometric Models - Vilela 2017.pdf: 2079231 bytes, checksum: d0387462f36ab4ab7e5d33163bb68416 (MD5) / Approved for entry into archive by Maria Almeida (maria.socorro@fgv.br) on 2017-05-15T19:31:43Z (GMT) No. of bitstreams: 1 Hypothesis Testing in Econometric Models - Vilela 2017.pdf: 2079231 bytes, checksum: d0387462f36ab4ab7e5d33163bb68416 (MD5) / Made available in DSpace on 2017-05-15T19:32:18Z (GMT). No. of bitstreams: 1 Hypothesis Testing in Econometric Models - Vilela 2017.pdf: 2079231 bytes, checksum: d0387462f36ab4ab7e5d33163bb68416 (MD5) Previous issue date: 2015-12-11 / This thesis contains three chapters. The first chapter considers tests of the parameter of an endogenous variable in an instrumental variables regression model. The focus is on one-sided conditional t-tests. Theoretical and numerical work shows that the conditional 2SLS and Fuller t-tests perform well even when instruments are weakly correlated with the endogenous variable. When the population F-statistic is as small as two, the power is reasonably close to the power envelopes for similar and non-similar tests which are invariant to rotation transformations of the instruments. This finding is surprising considering the poor performance of two-sided conditional t-tests found in Andrews, Moreira, and Stock (2007). These tests have bad power because the conditional null distributions of t-statistics are asymmetric when instruments are weak. Taking this asymmetry into account, we propose two-sided tests based on t-statistics. These novel tests are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test. The second and third chapters are interested in maxmin and minimax regret tests for broader hypothesis testing problems. In the second chapter, we present maxmin and minimax regret tests satisfying more general restrictions than the alpha-level and the power control over all alternative hypothesis constraints. More general restrictions enable us to eliminate trivial known tests and obtain tests with desirable properties, such as unbiasedness, local unbiasedness and similarity. In sequence, we prove that both tests always exist and under suficient assumptions, they are Bayes tests with priors that are solutions of an optimization problem, the dual problem. In the last part of the second chapter, we consider testing problems that are invariant to some group of transformations. Under the invariance of the hypothesis testing, the Hunt-Stein Theorem proves that the search for maxmin and minimax regret tests can be restricted to invariant tests. We prove that the Hunt-Stein Theorem still holds under the general constraints proposed. In the last chapter we develop a numerical method to implement maxmin and minimax regret tests proposed in the second chapter. The parametric space is discretized in order to obtain testing problems with a finite number of restrictions. We prove that, as the discretization turns finer, the maxmin and the minimax regret tests satisfying the finite number of restrictions have the same alternative power of the maxmin and minimax regret tests satisfying the general constraints. Hence, we can numerically implement tests for a finite number of restrictions as an approximation for the tests satisfying the general constraints. The results in the second and third chapters extend and complement the maxmin and minimax regret literature interested in characterizing and implementing both tests. / Esta tese contém três capítulos. O primeiro capítulo considera testes de hipóteses para o coeficiente de regressão da variável endógena em um modelo de variáveis instrumentais. O foco é em testes-t condicionais para hipóteses unilaterais. Trabalhos teóricos e numéricos mostram que os testes-t condicionais centrados nos estimadores de 2SLS e Fuller performam bem mesmo quando os instrumentos são fracamente correlacionados com a variável endógena. Quando a estatística F populacional é menor que dois, o poder é razoavelmente próximo do poder envoltório para testes que são invariantes a transformações que rotacionam os instrumentos (similares ou não similares). Este resultado é surpreendente considerando a baixa performance dos testes-t condicionais para hipóteses bilaterais apresentado em Andrews, Moreira, and Stock (2007). Estes testes possuem baixo poder porque as distribuições das estatísticas-t na hipótese nula são assimétricas quando os instrumentos são fracos. Explorando tal assimetria, nós propomos testes para hipóteses bilaterais baseados em estatísticas-t. Estes testes são aproximadamente não viesados e podem performar tão bem quanto o teste de razão de máxima verossimilhança condicional. No segundo e no terceiro capítulos, nosso interesse é em testes do tipo maxmin e minimax regret para testes de hipóteses mais gerais. No segundo capítulo, nós apresentamos testes maxmin e minimax regret que satisfazem restrições mais gerais que as restrições de tamanho e de controle sobre todo o poder na hipótese alternativa. Restrições mais gerais nos possibilitam eliminar testes triviais e obter testes com propriedades desejáveis, como por exemplo não viés, não viés local e similaridade. Na sequência, nós provamos que ambos os testes existem e, sob condições suficientes, eles são testes Bayesianos com priors que são solução de um problema de otimização, o problema dual. Na última parte do segundo capítulo, nós consideramos testes de hipóteses que são invariantes à algum grupo de transformações. Sob invariância, o Teorema de Hunt-Stein implica que a busca por testes maxmin e minimax regret pode ser restrita a testes invariantes. Nós provamos que o Teorema de Hunt-Stein continua válido sob as restrições gerais propostas. No último capítulo, nós desenvolvemos um procedimento numérico para implementar os testes maxmin e minimax regret propostos no segundo capítulo. O espaço paramétrico é discretizado com o objetivo de obter testes de hipóteses com um número finito de pontos. Nós provamos que, ao considerarmos partições mais finas, os testes maxmin e minimax regret que satisfazem um número finito de pontos possuem o mesmo poder na hipótese alternativa que os testes maxmin e minimax regret que satisfazem as restrições gerais. Portanto, nós podemos implementar numericamente os testes que satisfazem um número finito de pontos como aproximação aos testes que satisfazem as restrições gerais.

Page generated in 0.0878 seconds